基于并行迭代模仿解码的场景文字识别系统及方法

    公开(公告)号:CN113963340A

    公开(公告)日:2022-01-21

    申请号:CN202111026162.9

    申请日:2021-09-02

    Abstract: 本发明公开了一种基于并行迭代模仿解码的场景文字识别系统及方法,涉及场景图像文本检测识别领域,综合了自回归和非自回归解码的优点,采用一种并行迭代的生成方式,针对不同长度的文本采用固定的迭代次数,并将“简单优先”策略引入到文字识别任务中,并引入一个额外的自回归解码器作为教师网络,使用自回归解码器FFN的输出作为额外的监督信号对并行解码器进行监督学习,并使用模仿学习来辅助并行解码器隐藏层的学习。本发明在多个公开的数据集上达到了最优的准确率,同时与自回归方法相比,速度上有明显的提升。

    基于受限注意力模型的字符检测网络训练方法、字符检测方法和字符检测器

    公开(公告)号:CN110503090B

    公开(公告)日:2021-11-09

    申请号:CN201910614874.9

    申请日:2019-07-09

    Abstract: 本发明涉及一种基于受限注意力模型的字符检测网络训练方法、字符检测方法和字符检测器。本发明设计了基于深度神经网络的字符检测器,在网络结构中加入注意力模型来对学习到的特征进行加权,充分利用了字符周围的上下文信息来辅助字符特征的学习,并设计了一个受限关系模型来对上下文信息进行编码,考虑了不同上下文信息对当前特征的影响。本发明使用受限的上下文信息来提升字符检测的结果,通过融入合适的上下文信息,可以在很大程度上提高字符检测器的性能,使其对于复杂环境(光照、遮挡、复杂纹理等)的变化产生较强的抵抗性,能够减少检测过程中的误报和漏报,同时能够提供初步的识别结果。

    基于高斯约束注意力机制网络的场景文字识别方法及系统

    公开(公告)号:CN112070114A

    公开(公告)日:2020-12-11

    申请号:CN202010767079.6

    申请日:2020-08-03

    Abstract: 本发明提出一种基于高斯约束注意力机制网络的场景文字识别方法及系统,涉及图像信息识别领域,通过提取待识别图片的视觉特征,得到二维特征图;将二维特征图转化为一维特征序列,根据该一维特征序列提取全局语义信息;将全局语义信息输入至第一个时间步中初始化解码隐状态,并在每个时间步中根据隐状态和二维特征图计算原始的注意力权重,利用该权重加权求和得到原始加权特征向量;根据隐状态和原始加权特征向量构造二维高斯分布掩膜,将该掩膜与原始的注意力权重相乘,得到矫正的注意力权重,根据该权重得到矫正后加权特征向量;将原始加权特征向量和矫正后加权特征向量融合一起来预测待识别图片的字符,从而能够解决注意力弥散的情况。

    基于受限注意力模型的字符检测网络训练方法、字符检测方法和字符检测器

    公开(公告)号:CN110503090A

    公开(公告)日:2019-11-26

    申请号:CN201910614874.9

    申请日:2019-07-09

    Abstract: 本发明涉及一种基于受限注意力模型的字符检测网络训练方法、字符检测方法和字符检测器。本发明设计了基于深度神经网络的字符检测器,在网络结构中加入注意力模型来对学习到的特征进行加权,充分利用了字符周围的上下文信息来辅助字符特征的学习,并设计了一个受限关系模型来对上下文信息进行编码,考虑了不同上下文信息对当前特征的影响。本发明使用受限的上下文信息来提升字符检测的结果,通过融入合适的上下文信息,可以在很大程度上提高字符检测器的性能,使其对于复杂环境(光照、遮挡、复杂纹理等)的变化产生较强的抵抗性,能够减少检测过程中的误报和漏报,同时能够提供初步的识别结果。

    一种基于三分类器协同训练学习的网络协议识别方法及系统

    公开(公告)号:CN104270392B

    公开(公告)日:2017-09-26

    申请号:CN201410575510.1

    申请日:2014-10-24

    Abstract: 本发明涉及一种基于三分类器协同训练学习的网络协议识别方法及系统:对网络原始流量进行IP重组和TCP流还原,将网络数据由包为单位规约为以流为单位;提取每条单向流的特征信息并向量化,构建特征矩阵;使用少量标记样本构建三分类器协同训练分类器;判定是否已有所分析协议的分类模型,如果没有则先利用三分类器协同训练学习方法构建协议分类器,否则对数据包的协议属性进行判别;利用基于J48的三分类器协同训练学习算法进行训练并得到所分析协议的分类模型;对未标识的网络数据包进行协议类别判定,输出结果为两类:一类是属于目标协议的网络数据包,另一类是非目标协议的网络数据包。本发明保证很高的识别准确率和召回率。

    一种基于三分类器协同训练学习的网络协议识别方法及系统

    公开(公告)号:CN104270392A

    公开(公告)日:2015-01-07

    申请号:CN201410575510.1

    申请日:2014-10-24

    CPC classification number: H04L43/026 H04L43/18 H04L69/22

    Abstract: 本发明涉及一种基于三分类器协同训练学习的网络协议识别方法及系统:对网络原始流量进行IP重组和TCP流还原,将网络数据由包为单位规约为以流为单位;提取每条单向流的特征信息并向量化,构建特征矩阵;使用少量标记样本构建三分类器协同训练分类器;判定是否已有所分析协议的分类模型,如果没有则先利用三分类器协同训练学习方法构建协议分类器,否则对数据包的协议属性进行判别;利用基于J48的三分类器协同训练学习算法进行训练并得到所分析协议的分类模型;对未标识的网络数据包进行协议类别判定,输出结果为两类:一类是属于目标协议的网络数据包,另一类是非目标协议的网络数据包。本发明保证很高的识别准确率和召回率。

    一种基于密集语义对比的自监督视觉模型预训练方法

    公开(公告)号:CN113989582B

    公开(公告)日:2024-08-02

    申请号:CN202110988818.9

    申请日:2021-08-26

    Abstract: 本发明公开了一种基于密集语义对比的自监督视觉模型预训练方法,其步骤包括:1)对于样本图像xi,利用数据增强方法a、b分别对样本图像xi增强后进行特征提取和映射,得到样本图像xi中每一个像素点pi的特征,即像素级特征#imgabs0#以及实例级特征#imgabs1#2)基于#imgabs2#和#imgabs3#进行对比学习,得到实例判别损失Lins;基于#imgabs4#和#imgabs5#进行对比学习,得到像素判别损失Lpix;3)根据像素点pi对应的正样本集计算邻居判别损失Lnei;4)对像素级特征集合va、vb分别执行聚类,分别获得K个聚类集群;然后对每个集群进行对比学习,计算聚类对比损失LKM;5)根据损失函数L=Lins+Lpix+Lsem对自监督视觉模型进行端到端的训练。

    一种基于自训练的文本检测器训练方法及系统

    公开(公告)号:CN111753657B

    公开(公告)日:2023-01-13

    申请号:CN202010428815.5

    申请日:2020-05-20

    Abstract: 本发明公开了一种基于自训练的文本检测器训练方法及系统。本方法步骤包括:1)获取来源于目标域的视频数据;使用源域的数据对检测器和跟踪器进行预训练;2)利用步骤1)训练后的检测器处理来源于目标域的视频数据,获得该视频数据每一帧的检测结果;步骤1)训练后的跟踪器根据前一帧的检测结果预测当前帧的跟踪结果;3)文本挖掘模块将每一帧的检测结果与跟踪结果进行融合生成运动轨迹,然后根据该运动轨迹中的边界包围盒来预测轨迹结果,以及从该运动轨迹中挖掘得到难正样本和难负样本,其中当且仅当该视频数据中的一帧图像A中存在难正样本或难负样本,则将图像A添加到伪数据集中;4)利用步骤3)得到的伪数据集训练检测器。

    一种基于自训练的文本检测器训练方法及系统

    公开(公告)号:CN111753657A

    公开(公告)日:2020-10-09

    申请号:CN202010428815.5

    申请日:2020-05-20

    Abstract: 本发明公开了一种基于自训练的文本检测器训练方法及系统。本方法步骤包括:1)获取来源于目标域的视频数据;使用源域的数据对检测器和跟踪器进行预训练;2)利用步骤1)训练后的检测器处理来源于目标域的视频数据,获得该视频数据每一帧的检测结果;步骤1)训练后的跟踪器根据前一帧的检测结果预测当前帧的跟踪结果;3)文本挖掘模块将每一帧的检测结果与跟踪结果进行融合生成运动轨迹,然后根据该运动轨迹中的边界包围盒来预测轨迹结果,以及从该运动轨迹中挖掘得到难正样本和难负样本,其中当且仅当该视频数据中的一帧图像A中存在难正样本或难负样本,则将图像A添加到伪数据集中;4)利用步骤3)得到的伪数据集训练检测器。

    基于特征压缩与特征选择的歪斜场景文字识别方法

    公开(公告)号:CN104598881B

    公开(公告)日:2017-09-29

    申请号:CN201510014950.4

    申请日:2015-01-12

    Abstract: 本发明涉及一种基于特征压缩与特征选择的歪斜场景文字识别方法,其步骤包括:在文字区域的每个像素点上提取CHOG特征;根据CHOG特征的差异程度确定字符级的聚类数量;对CHOG特征进行聚类得到压缩后的字符级特征;将压缩过的特征合并,再次进行聚类,生成初始的视觉特征词典;建立视觉特征直方图描述符;训练线性支持向量机,对直方图描述符中特征的重要性进行排序,选出若干最重要的特征作为最终的词典;再次计算样本的直方图描述符,训练多类径向基函数支持向量机,作为最终的文字分类器以对歪斜场景文字进行识别,得到识别结果。本发明能够在克服特征点检测法失效的同时,保证很高的识别准确率和召回率。

Patent Agency Ranking