一种自监督文档图像篡改检测方法、装置及介质

    公开(公告)号:CN116524294A

    公开(公告)日:2023-08-01

    申请号:CN202310405925.3

    申请日:2023-04-14

    Abstract: 本发明公开了一种自监督文档图像篡改检测方法、装置及介质,其中方法包括:获取文档图像;对文档图像进行预处理;根据预处理后的文档图像,利用选择式篡改生成方法生成自监督训练样本;构建并训练基于多模态Transformer的文档图像篡改检测模型;构建并训练频域攻击检测模型;根据训练后的文档图像篡改检测模型和频域攻击检测模型,构建文档图像篡改检测系统,用于对输入样本进行预测。本发明本发明的文档图像篡改检测系统仅仅利用无标注文档图像进行训练,节省了大量人力,实现了自监督的文档图像篡改检测;模型基于多模态Transformer同时利用视觉信息和频域信息进行篡改检测,可高效检出无视觉痕迹篡改,可广泛应用于人工智能及计算机视觉的技术领域。

    一种桥接式的端到端文字识别方法

    公开(公告)号:CN117975467A

    公开(公告)日:2024-05-03

    申请号:CN202410390481.5

    申请日:2024-04-02

    Abstract: 本发明公开了一种桥接式的端到端文字识别方法,涉及计算机视觉与人工智能技术领域,包括:获取训练好的文本检测模型和文本识别模型,并冻结文本检测模型和文本识别模型的训练参数;获取待处理文本特征图,将待处理文本特征图输入至训练好的文本检测模型中,获得文字区域和文字区域特征;将文字区域和文字区域特征输入桥接转换模型中,获得文字区域融合特征;将文字区域融合特征输入至训练好的文本识别模型,获取识别结果。本发明识别准确率高、鲁棒性强,适用于各种文本检测网络和识别网络。

    一种基于动态采样的端到端文字识别方法

    公开(公告)号:CN116935403A

    公开(公告)日:2023-10-24

    申请号:CN202311015384.X

    申请日:2023-08-14

    Abstract: 本发明公开了一种基于动态采样的端到端文字识别方法,包括以下步骤:获取待处理的文本图像;将所述待处理的文本图像输入文本检测模型,获取待处理图像中的文字区域;将所述文字区域输入动态采样模型,获取与所述文字区域对应的文字视觉特征;将所述文字视觉特征输入识别模型,获取识别结果。本发明利用动态采样网络来连接文本检测和文本识别网络,能够识别各种场景下复杂多样的文字,适用于不同机制的端到端文字识别方法,并在各个公开的数据集上达到了较高的准确率,具有极高的实用性和应用价值。

    一种基于全卷积网络的深度模型的场景文本擦除方法

    公开(公告)号:CN109492627A

    公开(公告)日:2019-03-19

    申请号:CN201910056611.0

    申请日:2019-01-22

    Abstract: 本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:收集并合成对应的文本与非文本图片、构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,并进行模型训练和测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果;本发明通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测。

    一种桥接式的端到端文字识别方法

    公开(公告)号:CN117975467B

    公开(公告)日:2024-08-13

    申请号:CN202410390481.5

    申请日:2024-04-02

    Abstract: 本发明公开了一种桥接式的端到端文字识别方法,涉及计算机视觉与人工智能技术领域,包括:获取训练好的文本检测模型和文本识别模型,并冻结文本检测模型和文本识别模型的训练参数;获取待处理文本特征图,将待处理文本特征图输入至训练好的文本检测模型中,获得文字区域和文字区域特征;将文字区域和文字区域特征输入桥接转换模型中,获得文字区域融合特征;将文字区域融合特征输入至训练好的文本识别模型,获取识别结果。本发明识别准确率高、鲁棒性强,适用于各种文本检测网络和识别网络。

    一种基于YOLO的水表自动检测方法

    公开(公告)号:CN109344850A

    公开(公告)日:2019-02-15

    申请号:CN201810845742.2

    申请日:2018-07-27

    Abstract: 本发明提供一种基于YOLO框架的水表自动检测方法,具体包括如下步骤:(1)数据获取:用手机拍摄尽量多水表读数照片,涵盖多种水表(2)数据处理:对照片进行裁剪,处理后大小为480*200(3)label制作:因为采用有监督的方法来检测水表,所以通过人工用软件手动标定水表读数边框(4)训练网络:把准备好的训练数据及label输入到YOLO网络中训练(5)测试网络:输入测试数据到已训练网络中,最后得到水表检测结果和概率。本发明利用YOLO实现了水表的自动检测,能快速地将水表读数区域检测出,检测时间为0.08秒,检测准确率达99.5%,具有极高的实用性和应用价值。

    一种基于Faster-rcnn的水表自动检测方法

    公开(公告)号:CN109029641A

    公开(公告)日:2018-12-18

    申请号:CN201810847125.6

    申请日:2018-07-27

    Abstract: 本发明提供了一种基于Faster‑rcnn的水表自动检测方法。具体包括如下步骤:(1)数据获取:用手机拍摄50000多张水表读书照片,涵盖多种水表(2)数据处理:对照片进行裁剪,处理后大小为480*200(3)label制作:采用有监督的方法来检测水表,通过人工用软件手动标定水表读数边框(4)训练网络:把准备好的训练数据及label输入到Faster‑rcnn网络中训练(5)测试网络:输入测试数据到已训练网络中,最后得到水表检测结果和概率。本发明利用Faster‑rcnn实现了水表的自动检测,能快速地将水表读数区域检测出,检测时间为0.177秒,检测准确率达99%,具有极高的实用性和应用价值。

    一种基于全卷积网络的深度模型的场景文本擦除方法

    公开(公告)号:CN109492627B

    公开(公告)日:2022-11-08

    申请号:CN201910056611.0

    申请日:2019-01-22

    Abstract: 本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:收集并合成对应的文本与非文本图片、构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,并进行模型训练和测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果;本发明通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测。

    一种场景文本检测结果的评估方法

    公开(公告)号:CN110399871A

    公开(公告)日:2019-11-01

    申请号:CN201910517849.9

    申请日:2019-06-14

    Abstract: 本发明公开了一种场景文本检测结果的评估方法,该方法分别将预测框在原标注框的占比以及目标文本标注框在预测框的占比作为判定因素,根据这些因素计算检测文本框的召回率和准确率以及调和平均数。与之前的方法相比,在进行文本检测结果评估的时候,该方法考虑到了召回文本框是否能包含完整的文本信息以及检测框之间的紧凑性等问题,而且也将不同检测框和原标注框的紧密程度考虑在内。本方法也针对数据标注标准不一致(有些文本是行级别标注,有些则是单词级别标注)导致结果评估不公正的问题提出了更好的解决方案。本发明能够更加科学地去评估一个场景文本检测器的性能,而且也对检测模型的改进有很大的指导意义。

    一种基于集聚交叉熵损失函数的序列识别方法

    公开(公告)号:CN110390326A

    公开(公告)日:2019-10-29

    申请号:CN201910517854.X

    申请日:2019-06-14

    Abstract: 本发明公开了一种基于集聚交叉损失函数的序列识别方法,包括以下步骤:下载自然场景文本识别数据作为测试集,并使用开源代码合成的自然场景文本的数据作为训练数据;采集自然场景下的图片,并对所述图片进行等比例放缩操作;统计所述图片中的标签出现的字符类别、所述字符类别出现的次数;通过监督网络预测所述自然场景文本数据的字符类别、所述字符类别出现次数,将自然场景文本数据与所述标签的差别的部分进行训练;把步骤A中的自然场景文本识别数据、步骤C中的标签数据输入到预先设计好的网络中进行训练;输入测试数据到已训练完成的网络中,最后得到图片的识别结果;本发明对弯曲排列文本具有很高的鲁棒性和有效性。

Patent Agency Ranking