-
公开(公告)号:CN114841977A
公开(公告)日:2022-08-02
申请号:CN202210535974.4
申请日:2022-05-17
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种基于Swin Transformer结构结合SSIM和GMSD的疵点检测方法,包括获取工业疵点图片,输入预先构建的基于Swin Transformer的特征提取网络进行特征学习,对学习到的特征图进行无疵点区域信息的重建,获得重建图片;计算所述工业疵点图片与重建图片的结构相似性SSIM,得到基于结构相似性的疵点异常特征图;计算所述工业疵点图片与重建图片之间的梯度幅度相似性偏差GMSD,得到基于梯度幅度相似性的疵点异常特征图;将所述基于结构相似性的疵点异常特征图与所述基于梯度幅度相似性的疵点异常特征图融合,得到最终的疵点检测效果图,本发明不仅可以有效提高疵点检测的准确率,同时提高疵点定位的精度,降低误检率。
-
公开(公告)号:CN114494805A
公开(公告)日:2022-05-13
申请号:CN202111543339.2
申请日:2021-12-16
Applicant: 南京信息工程大学
IPC: G06V10/80 , G06V10/82 , G06V10/764 , G06N3/04 , G06K9/62
Abstract: 本发明公开了图像处理技术领域的一种基于Resnet50结合注意力机制和特征金字塔的图像分类方法,包括以下步骤:S1、采集输入图片,并对图像进行数据预处理;S2、将预处理后的图像导入分类模型,输出三个不同卷积层的特征图;S3、对各特征图进行分别的分类预测,取可信度最大分类器,输出最终预测分类结果,本发明具有图像分类准确率高、提取质量高等优点。
-
公开(公告)号:CN114862890B
公开(公告)日:2025-04-11
申请号:CN202210582218.7
申请日:2022-05-26
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种基于改进LSD的磁极倒转图信息抽取方法,包括获取图片集;将所述图片集进行人工标注深度信息;通过sobel算子对所述标注过的图片集进行边缘检测;通过改进LSD算法对所述边缘图像进行线段检测;对所述线段进行筛选,得到边界线段集;将所述边界线段集依深度排序两两组合成磁极倒转区域,获得磁极倒转区域集合;对所述磁极倒转区域遍历每一个像素,获取该磁极倒转区域的磁性;使用所述深度信息与各磁极倒转区域的边界线段坐标,推算出各磁极倒转区域的深度信息;依据所述磁极倒转区域的磁性与各磁极倒转区域的深度信息,整合出该磁极倒转图的深度‑磁性数据,本发明提高了对磁极倒转区域边缘线段检测的准确度。
-
公开(公告)号:CN118470014B
公开(公告)日:2024-09-24
申请号:CN202410925191.6
申请日:2024-07-11
Applicant: 南京信息工程大学
IPC: G06T7/00 , G06V10/25 , G06V10/44 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了一种工业异常检测方法及系统,包括:获取待异常检测的图像;根据获取的图像,基于预训练好的异常检测模型,对异常进行检测定位;所述异常检测模型包括:骨干网络、池化层、级联流、双子流以及恒定流;所述级联流包含若干依次排列的流块。本发明使得异常数据特征与正常数据特征之间有更加明显的区别,进而提升定位异常的效果。
-
公开(公告)号:CN113609906B
公开(公告)日:2024-06-21
申请号:CN202110736883.2
申请日:2021-06-30
Applicant: 南京信息工程大学
IPC: G06V30/413 , G06V30/19 , G06V10/82
Abstract: 本发明涉及一种面向文献的表格信息抽取方法,属于数据处理以及计算机视觉领域。该方法包括以下步骤:1:利用规则获取所有可能含表格的候选页面;2:将获取的页面转化为图片文件;3:采用深度学习方法,获取图片文件的特征;4:根据获取的图片文件的特征,对图片进行特征融合;获取融合后的特征;5:根据获取的特征融合后的特征,对表格的位置进行初步定位;6:针对获得的表格定位信息,根据表格元素的长宽关系,将横板表格旋转为竖版表格;7:根据获得的竖版表格,读取单元格字符流。本发明能自动对表格位置进行准确的定位,能够精确的从表格中读取表格的字符流。
-
公开(公告)号:CN114037684B
公开(公告)日:2024-06-14
申请号:CN202111316595.8
申请日:2021-11-08
Applicant: 南京信息工程大学
IPC: G06T7/00 , G06V10/40 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08 , G01D21/02
Abstract: 本发明公开了一种基于yo1ov5和注意力机制模型的疵点检测方法,包括:基于yo1ov5网络和注意力机制模型构建疵点检测模型;对导入的工业疵点图像进行预处理,将预处理图像导入疵点检测模型,得到形状不同的三个输出特征层;对形状不同的三个输出特征层进行预测,生成边界框并预测类别;对图像上疵点的类别和疵点的位置信息进行显示,得到疵点检测图像。本发明可以有效的提高模型对空间特征和通道特征的学习,通过检测头可以实现对不同大小的疵点进行检测,提高了对于大疵点的检测效果,从而提高检测效率,解决了当前工业疵点检测算法很难同时保证检测算法的准确率及实时性。
-
公开(公告)号:CN118037733A
公开(公告)日:2024-05-14
申请号:CN202410438275.7
申请日:2024-04-12
Applicant: 南京信息工程大学
IPC: G06T7/00 , G06T7/11 , G06T5/50 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种基于距离信息驱动的复杂工业图像异常检测方法及装置,方法为将待检测图像输入训练好的图像异常检测模型,获得异常定位图。本发明通过确定待检测物体中心并生成距离表示图像,可以学习物体每一块区域的特征分布,将不符合这种分布的区域判定为异常,能够有效的定位出复杂图片中每一个待检测物体的位置,并且能检测和定位出每一个待检测物体上可能存在的异常;在训练时不使用任何真实的异常图像,通过引入大模型对待检测物体进行分割,在获取了真实物体分割图像的同时指导小型分割模型的训练,以便在测试阶段摆脱对大模型的依赖,以较低的成本使模型同时具有分割待检测物体和物体上异常的能力。
-
公开(公告)号:CN117809123B
公开(公告)日:2024-05-14
申请号:CN202410227319.1
申请日:2024-02-29
Applicant: 南京信息工程大学
IPC: G06V10/764 , G06V10/26 , G06F16/51 , G06F16/532 , G06F16/583 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种双阶段图像的异常检测与重构方法及系统,方法包括:将输入图像输入至预设的图像分割模型获得异常掩码图#imgabs0#;将所述异常掩码图#imgabs1#中的伪异常区域所对应在输入图像的区域记为可疑异常区域#imgabs2#;将输入图像的可疑异常区域#imgabs3#替换为相似图像对应的区域获得叠加图像#imgabs4#;对叠加图像#imgabs5#进行灰度化处理后输入预设的图像重构模型获得重构图像#imgabs6#;逐像素比较重构图像#imgabs7#与输入图像之间的差异获得异常得分,根据异常得分对输入图像的异常区域进行定位和判断;本发明不仅可以重构正常图片细节,还可以有效重构大面积的异常,进而增加整体的异常检测精度。
-
公开(公告)号:CN116385807B
公开(公告)日:2023-09-12
申请号:CN202310621436.1
申请日:2023-05-30
Applicant: 南京信息工程大学
IPC: G06V10/764 , G06V10/56 , G06V10/26
Abstract: 本发明公开了一种异常图像样本生成方法及装置,步骤1:获取标准化图像;步骤2:进行像素点采样;步骤3:进行分类确定标准化图像的颜色分布情况;步骤4:生成区域的位置以及生成异常的大小;步骤5:随机选取对应所述所需区域大小的区域,确定随机区域,接着确定随机区域的位置,并在此位置根据所述生成异常的大小生成方框;步骤6:为生成的方框随机添加颜色滤镜、增大、旋转、填充、变色中的一种操作;步骤7:在操作后的方框对应位置处随机选择一个方向,重复步骤4和步骤5若干次,扩展生成多个方框,将包括所有方框的标准化图像作为最终的模拟异常图像。优点:保证了模拟出的异常能够拟合实际中的异常情况,更好的完成异常检测任务。
-
公开(公告)号:CN113255493B
公开(公告)日:2023-06-30
申请号:CN202110533314.8
申请日:2021-05-17
Applicant: 南京信息工程大学
IPC: G06V20/40 , G06V10/26 , G06V10/74 , G06V10/762 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种融合视觉词和自注意力机制的视频目标分割方法,属于计算机视觉技术领域。该方法包括如下步骤:首先利用固定数量的视觉词来表示感兴趣的目标,即使一个对象作为一个整体可能会受到遮挡,变形,视点变化或者从同一视频中消失并重新出现,但其某些局部部分的外观仍会保持一致,因此使用视觉词可以实现更鲁棒的匹配。然后,我们将自注意力机制用于视觉单词匹配生成的相似图,以捕获不同相似图之间的依赖关系。最后,为了解决目标对象的外观变化和视觉词不匹配问题,提出了在线更新和全局匹配机制进一步提高准确率。本发明在部分视频场景中分割精度超出同类算法,同时分割效率有明显的提升。
-
-
-
-
-
-
-
-
-