基于图神经网络的文档图像关键信息提取及匹配方法

    公开(公告)号:CN112464781A

    公开(公告)日:2021-03-09

    申请号:CN202011328157.9

    申请日:2020-11-24

    Abstract: 本发明涉及一种基于图神经网络的文档图像关键信息提取及匹配方法,包括以下步骤:步骤1:构建用于获取关键文本所在区域边框位置的关键文本信息检测模型;步骤2:构建用于识别文字边框内的文字关键文本识别模型;步骤3:将待提取信息的文档图像依次通过关键文本信息检测模型和关键文本识别模型,获取全部子图的文字识别结果;步骤4:以关键文本边框为节点构建图,以图神经网络为基础网络分别对于每个文本框的节点进行聚合,并预测节点的关键文本节点类型;步骤5:以正则表达式以及领域规则库的方式修正关键文本的识别结果,并得到最终的提取及匹配结果。本发明实现高效提取文档图像中的关键元素,并且准确地为关键元素匹配相应键值。

    基于局部特征图实时更新的联机手写中文文本行识别方法

    公开(公告)号:CN115131648A

    公开(公告)日:2022-09-30

    申请号:CN202210823282.X

    申请日:2022-07-13

    Abstract: 本发明提出基于局部特征图实时更新的联机手写中文文本行识别方法,包括以下步骤;步骤S1、初始化实时识别模型;步骤S2、在启动笔画输入时,以笔尖触碰手写设备的手写面为开始标志;步骤S3、采集联机手写中文文本行轨迹,记录笔画的坐标点序列,以提笔作为一个笔画的结束标志;步骤S4、截取新输入的笔画对应的局部图像,进行预处理;步骤S5、计算新输入笔画对应的局部图像的CNN特征,将新特征替换到上一次的特征图上,实现新笔画的局部特征实时更新;步骤S6、使用语言模型解码更新识别结果,实现文本行实时识别;本发明速度大幅提升,具有较低的图像大小依赖性、较强的可拓展性与鲁棒性,能用于各种资源受限的嵌入式设备中,具有较高的应用价值。

    基于图神经网络的文档图像关键信息提取及匹配方法

    公开(公告)号:CN112464781B

    公开(公告)日:2023-06-02

    申请号:CN202011328157.9

    申请日:2020-11-24

    Abstract: 本发明涉及一种基于图神经网络的文档图像关键信息提取及匹配方法,包括以下步骤:步骤1:构建用于获取关键文本所在区域边框位置的关键文本信息检测模型;步骤2:构建用于识别文字边框内的文字关键文本识别模型;步骤3:将待提取信息的文档图像依次通过关键文本信息检测模型和关键文本识别模型,获取全部子图的文字识别结果;步骤4:以关键文本边框为节点构建图,以图神经网络为基础网络分别对于每个文本框的节点进行聚合,并预测节点的关键文本节点类型;步骤5:以正则表达式以及领域规则库的方式修正关键文本的识别结果,并得到最终的提取及匹配结果。本发明实现高效提取文档图像中的关键元素,并且准确地为关键元素匹配相应键值。

    基于跨层特征校准融合的目标跟踪方法及系统

    公开(公告)号:CN116128928A

    公开(公告)日:2023-05-16

    申请号:CN202310192731.X

    申请日:2023-03-02

    Abstract: 本发明涉及一种基于跨层特征校准融合的目标跟踪方法及系统,该方法包括:将模板区域图像和搜索区域图像输入共享权重的孪生卷积神经网络;分别采用修改后的resnet50提取模板分支和搜索分支的特征,提取第三个、第四个卷积块的特征;分别使用基于注意力的特征融合模块融合模板分支、搜索分支的第三个和第四个卷积块的特征;模板分支和搜索分支分别使用跨层校准模块通过融合后的特征来校准第四个卷积块的特征;分别对模板分支和搜索分支的第三个卷积块特征、融合后的特征、校准后的特征做深度互相关,得到三个相似性响应图,拼接在一起并降维;将降维后的相似性响应图输入预测头进行分类回归,最后得到目标的位置。该方法及系统有利于提高目标跟踪的性能。

    一种基于多分支增强型判别特征提取的车辆重识别方法

    公开(公告)号:CN115223111A

    公开(公告)日:2022-10-21

    申请号:CN202210873517.6

    申请日:2022-07-22

    Abstract: 本发明提出一种基于多分支增强型判别特征提取的车辆重识别方法,包括以下步骤;步骤S1、选取车辆重识别网络模型的骨干网络,定义网络优化器和训练参数,初始化待训练模型;步骤S2、整合训练数据集并增扩数据集;步骤S3、进行模型训练;步骤S4、全局分支计算全局损失;步骤S5、水平分支把全局特征图沿宽度切分成四个大小相同不重叠的子特征图,并且把子特征图分别输入到损失模块计算局部损失;步骤S6、竖直分支计算局部损失;步骤S7、根据步骤S3‑S6的损失进行反向传播,调整网络的参数;步骤S8、重复步骤S2‑S7直到达到网络训练设置的最大次数;步骤S9、保存分类精度最高的模型参数;本发明不需要人工标注标签及特定的数据集就可以达到较好的识别效果。

Patent Agency Ranking