一种RGB-D图像分类方法及系统

    公开(公告)号:CN105224942A

    公开(公告)日:2016-01-06

    申请号:CN201510402298.3

    申请日:2015-07-09

    Abstract: 本发明涉及一种RGB-D图像分类方法及系统。所述方法包括:S1.利用卷积神经网络(CNN)分别对源RGB图像和Depth图像进行处理提取低层次特征;S2.通过递归神经网络(RNN)对图像低层次特征进行反馈学习,提取图像中层特征;S3.采用块内约束字典学习方法,对图像中层特征进行特征组稀疏表示,获取RGB-D图像的高层特征表示;S4.将RGB-D图像的高层特征输入线性SVM完成RGB-D图像的分类识别。本发明能实现图像自动提取特征,学习的RGB-D图像特征表示能有效区分噪声数据与高相似度图像分类,提高RGB-D图像分类精确率,采用线性SVM,提高图像分类速度。

    基于部件级表观模型的物体跟踪方法

    公开(公告)号:CN103413323A

    公开(公告)日:2013-11-27

    申请号:CN201310317408.7

    申请日:2013-07-25

    Abstract: 本发明公开了一种基于部件级表观模型的物体跟踪方法,是基于中层视觉线索部件级更新表观模型的方法,通过对图像进行超像素分割,以超像素描述跟踪物体的目标部件,利用目标部件的信息构造物体特征池建立和更新物体的表观模型,该模型能够准确的表达形变、遮挡等情况下的运动物体。更新物体表观模型时,用新跟踪帧的部件替换特征池中将被替换的部分部件集,建立目标物体部件的特征补集,将特征补集作为新跟踪帧的部件描述信息加入特征池,再根据新的特征池建立表观模型实现表观模型的更新。本法随着对物体跟踪的进行,更新表观模型信息集中被跟踪物体的信息,物体表观模型更加全面,在指导跟踪严重遮挡、变形等外观变化较大时能够取得更好的效果。

    一种基于稀疏多视图的猪只三维重建方法

    公开(公告)号:CN120014170A

    公开(公告)日:2025-05-16

    申请号:CN202510105711.3

    申请日:2025-01-23

    Abstract: 本发明公开了一种基于稀疏多视图的猪只三维重建方法,本发明在3DGS三维模型基础上进行以下两方面的优化:(1)引入了邻近高斯反池化策略,该策略以一种更合理的方式增加场景中高斯分布的密度,有效提升了场景的几何细节表现能力,弥补了3DGS模型在处理复杂细节时的不足;(2)引入了几何深度约束,其利用真实或伪视图的深度信息,通过皮尔逊相关系数优化渲染深度与估计深度的一致性,提升了模型对场景几何结构的理解能力,有效缓解了稀疏视角条件下的几何模糊问题,进一步提升稀疏多视图3DGS模型的重建质量。本发明能够在稀疏图像视角条件下实现高效、精确的猪只三维重建,更好地确保重建的猪只三维模型在不同视角下仍具较高的稳定性和精度。

    基于预训练代码模型的跨域对抗性攻击方法

    公开(公告)号:CN119806483A

    公开(公告)日:2025-04-11

    申请号:CN202411715271.5

    申请日:2024-11-27

    Abstract: 本发明公开了一种基于预训练代码模型的跨域对抗性攻击方法,旨在克服现有方法在数据差异和模型反馈缺失等挑战中的不足。方法包括下述步骤:获取源代码数据,遍历所述源代码数据识别出其基本构成单元token,所述token至少包括标识符和操作符;基于掩码语言模型为提取的标识符生成自然的替代标识符集;应用token级别的等价变换初步优化对抗性示例;应用等价结构变换对初步优化后的对抗性示例进行进一步转换,得到最终的对抗性示例。本发明通过结构和token级扰动、结合掩码语言模型生成自然替代标识符,并结合贪婪搜索和梯度优化,增强对抗性示例的迁移能力和攻击效果。

    基于深度学习的根毛分割方法、系统及设备

    公开(公告)号:CN119693636A

    公开(公告)日:2025-03-25

    申请号:CN202411481211.1

    申请日:2024-10-23

    Abstract: 本发明公开了一种基于深度学习的根毛分割方法、系统及设备,方法包括:识别图像中的根毛主干信息;将若干个独立的子区域patch进行图像预处理;将patch输入到CAE模块中,学习根毛的外观特征;将CAE模块处理后的图像输入根毛实例分割模型中对根毛进行检测分割;利用预设的深度估计模块预测根毛的深度,通过分析图像中的深度信息,生成精确的深度图,使得在进行图像分割时,准确区分和处理前后重叠的根毛;保留边界框内存在设定范围内检测分割结果;记录根毛分割结果和根毛在该区域的密度。本发明利用深度估计的方法提取重叠根毛的深度,将获得到的深度信息作为特征加入MP‑Former的编码器中,让模型在分割时充分学习到根毛的特征,提高对重叠根毛分割的准确性。

    基于双流驱动编码器和特征记忆模块的视频分割方法及装置

    公开(公告)号:CN114663460B

    公开(公告)日:2024-05-10

    申请号:CN202210191612.8

    申请日:2022-02-28

    Abstract: 本发明公开了基于双流驱动编码器和特征记忆模块的视频分割方法及装置,方法包括下述步骤:构建包含主干流和边缘流的双流驱动编码器,将引导信息和当前帧预处理后输入双流驱动编码器中的主干流,提取图像的深度特征,并将主干流中不同层输出的深度特征输入边缘流,提取图像的边缘特征;构造特征记忆模块,将主干流中最深层输出的特征作为特征记忆模块的输入,用于计算目标在当前帧和已完成分割帧中均稳定存在的特征;构造特征融合模块,将双流驱动编码器和特征记忆提取模块的输出通过该模块聚合,解码为当前帧分割结果。本发明展示了如何基于双流驱动编码器和特征记忆模块进行视频分割,可较好地分割出目标边缘,应对复杂场景下的多种挑战。

    基于双域特征学习与跨维度特征优化的夜间去雾方法及装置

    公开(公告)号:CN117541663A

    公开(公告)日:2024-02-09

    申请号:CN202311279950.8

    申请日:2023-10-07

    Abstract: 本发明公开了一种基于双域特征学习与跨维度特征优化的夜间去雾方法及装置,方法包括:利用预设的双域特征编码器强化并提取夜间有雾图像特征,在双域特征编码器的频率域学习分支中通过自适应频率选择模块提取出有雾图像的频率域特征,在双域特征编码器的空间域学习分支中利用残差稠密块提取夜间有雾图像的空间域特征,将频率特征和空间域特征融合;然后将融合后的特征输入跨维度注意力特征优化模块,经过设置跨维度交互注意力模块获得优化特征;将优化特征输入预设的双域特征解码器,获得夜间清晰图像。本发明提升夜晚有雾场景下的去雾表现,同时能够消除雾对图像的退化影响,真实地还原出图像的色彩与纹理细节,提升夜间去雾图像的真实性。

Patent Agency Ranking