基于两阶段对比学习的工业零部件缺陷检测方法及装置

    公开(公告)号:CN119273657A

    公开(公告)日:2025-01-07

    申请号:CN202411366557.7

    申请日:2024-09-29

    Abstract: 本发明公开了一种基于两阶段对比学习的工业零部件缺陷检测方法及装置,包括:采集工业零部件的图像数据集;生成多样性的合成异常样本;通过第一阶段的训练得到一个具有粗粒度异常定位能力的判别网络,所述判别网络用于辅助特征提取网络的训练过程;第二阶段的训练,使用对比学习框架来完成特征提取网络的适应性微调,学习正常样本之间的相似性以及正常样本与合成异常样本之间的差异性;构建一个只含有正常特征的压缩特征内存库,基于压缩特征内存库和训练好的缺陷检测模型对待检测的工业零部件进行缺陷检测。本发明基于两阶段对比学习方式,考虑每个正常的工业零部件之间的相关性,以及正常与异常零部件之间的差异性,保证缺陷检测的精度。

    一种基于对称性引导的物体图像修复方法

    公开(公告)号:CN114998116B

    公开(公告)日:2025-01-03

    申请号:CN202210462197.5

    申请日:2022-04-28

    Abstract: 一种基于对称性引导的物体图像修复方法,涉及图像处理技术领域,首先检测图像中残缺物体的对称轴,借助于对称轴获取物体的对称信息,将已知区域的对称信息填充到未知区域作为待填区域的初始值,解决原待修复区域信息为零的问题,然后在此基础上对图像进行有效修复。本发明有益效果:通过基于生成式对抗网络的物体对称轴检测技术,准确有效地检测到图像中具有残缺区域的对称物体的对称轴,最终能够生成结构合理、语义正确的对称物体图像,即使出现大面积残缺。

    基于深度学习的柑橘类果实采摘定位方法、系统及设备

    公开(公告)号:CN116645498A

    公开(公告)日:2023-08-25

    申请号:CN202310372669.2

    申请日:2023-04-10

    Abstract: 本发明公开了一种基于深度学习的柑橘类果实采摘定位方法、系统及设备,包括:利用目标检测模型对摄像头拍摄的场景进行果实检测;基于果实检测结果对拍摄场景进行近景、远景场景的判定;对远景场景的果实进行聚类算法,实现镜头由远景场景向近景场景的转换;利用先验法,获取果实与枝条的相对位置;对近景场景内与果实相连接的枝条通过改进的实例分割算法进行分割;根据果实检测结果、果实与枝条的相对位置和枝条分割结果,通过采摘点定位算法,得到果实采摘点的坐标,并控制机械臂完成果实的自动化采摘。本发明通过添加图像亮度、果叶长势先验改进SparseInst算法的IAM部分,让聚合实例特征的位置准确聚焦于目标枝条,提高分割算法的准确性与实时性。

    一种高准确率的果实产量估算方法、系统及设备

    公开(公告)号:CN116597195A

    公开(公告)日:2023-08-15

    申请号:CN202310372198.5

    申请日:2023-04-10

    Abstract: 本发明公开了一种高准确率的果实产量估算方法、系统及设备,包括:S1、采集果实种植区域中的远景图像以及同一区域的近景图像,并将所述远景图像和近景图像进行图像数据扩充,以扩增图像数据的数量和多样性;S2、将所述远景图像和近景图像输入至预先设立的产量估算网络模型中,学习远景图像和近景图像的信息关联性,得到果实的产量估算值;所述产量估算模型是使用改进的YOLOv5检测模型;S3、将所述果实的产量估算值输入到预先设立的专家系统中进行修正,得到精确的产量估算结果。本发明通过从远近景产量估算结合的角度入手,考虑到局部产量和全局产量存在的联系,通过学习其中的关联性来提高了产量预估的准确性。

    基于图像先验与全局块聚合的单图像去雾方法及装置

    公开(公告)号:CN116402697A

    公开(公告)日:2023-07-07

    申请号:CN202310042779.2

    申请日:2023-01-28

    Abstract: 本发明公开了一种基于图像先验与全局块聚合的单图像去雾方法及装置,方法包括:采用预先设立的多个特征去雾器把有雾图像转换为多个尺度的增强去雾特征;一个特征去雾器包含两个平行分支,在分支一中,根据图像自相似性聚合全局的清晰特征得到全局去雾特征;在分支二中,特征提取为全局去雾特征提供更多局部特征;将两个分支输出的特征进行融合后得到一个尺度的增强去雾特征,融合过程中是全局去雾特征和局部细节特征进行逐元素相加;最后将多个尺度的增强去雾特征输入到无雾图像解码器恢复得到去雾后的清晰图像。本发明能够有效地提升在复杂场景的去雾表现。特别地,在减少视觉伪影的产生的同时更准确复原图像细节,生成更加真实的清晰图像。

    基于最近点迭代和标志点匹配的活猪三维点云建模方法及装置

    公开(公告)号:CN115439600A

    公开(公告)日:2022-12-06

    申请号:CN202210831007.2

    申请日:2022-07-15

    Abstract: 本发明公开了基于最近点迭代和标志点匹配的活猪三维点云建模方法及装置,方法包括:得到目标猪体左上、左下、右上和右下四个视角的点云数据;将目标猪体左上、右上视角点云数据作为源点云,左下、右下视角点云数据作为目标点云,计算源点云中每个点在目标点云中的最近邻点;获得左右两个视角的点云数据;基于RGB信息识别活猪周围四个圆形标志点,通过圆心拟合获取左右两个视角中标志点在各自点云中的圆心坐标;将活猪前后视角的点云数据变换到同一坐标系下进行配准,得到活猪三维点云模型。本发明基于最近点迭代配准,再融合标志点配准法,进而获得活猪整个三维点云模型,提高了各角度的活猪点云模型跨度,有效减少三维深度相机的数量,同时保证建模精度。

    基于重要区域识别和匹配的视频跟踪方法

    公开(公告)号:CN107564035B

    公开(公告)日:2020-10-09

    申请号:CN201710643069.X

    申请日:2017-07-31

    Abstract: 本发明公开了一种基于重要区域识别和匹配的视频跟踪方法,包括下述步骤:首先,基于最小生成树理论识别初始目标的重要区域,得到目标重要区域并构建目标模板;然后,识别后续帧目标扩展区域的重要区域,并将该区域作为采样区域进行样本采集;接着,计算每个样本与目标模版的形状相似度值、颜色相似度值、皮尔逊相关系数值,并对三个值进行加权计算得到样本与目标模版的匹配度;最后,基于阈值比较方法更新目标模板以支持后续跟踪直至跟踪完成。本发明方法基于重要区域识别可以较好地描述动态变化的跟踪场景中的目标物体,结合目标的重要区域进行样本采集,提高了采样质量,增强了跟踪的准确率和稳定性。

Patent Agency Ranking