一种使用自适应特征融合的RGB-D显著目标检测方法

    公开(公告)号:CN113538442B

    公开(公告)日:2024-04-09

    申请号:CN202110624851.3

    申请日:2021-06-04

    Abstract: 本发明公开了一种使用自适应特征融合的RGB‑D显著目标检测方法,首先使用2个结构相同的编码器网络分别对RGB图像和Depth图像这2个数据流编码,编码后对2个数据流分别获得m个层级的特征;然后在RGB和Depth两个数据流的解码过程中分别使用自适应特征融合;在联合数据流中对2个数据流的特征融合;最后使用损失函数对该网络模型优化。本发明所述的方法,可以提高RGB‑D显著目标检测的效果。通过使用自适应特征融合,可以有效融合数据流内不同层级的特征。通过使用数据流间特征融合方法,可以有效融合2个数据流的特征。

    一种基于动态特征选择的RGB-D显著目标检测方法

    公开(公告)号:CN113392727B

    公开(公告)日:2024-04-05

    申请号:CN202110586099.8

    申请日:2021-05-27

    Abstract: 本发明公开了一种基于动态特征选择的RGB‑D显著目标检测方法。本发明提出了一种动态选择网络,包括动态选择模块DSM和跨模态全局上下文模块CGCM,其中DSM又包含了两个子模块:跨模态注意力模块CAM和双向门控池化模块BGPM。通过CAM从通道和空间的角度来动态地挖掘RGB和深度图之间的互补信息,通过CGCM从全局的角度来精准地凸出显著目标。通过BGPM,以门控选择的方式优化了跨级别信息,以动态选择的方式强化了多尺度信息。最后,本发明进一步引入了边缘监督策略,并将空间注意力机制嵌入到其中,以反馈的方式保证了显著目标边界的准确性和清晰性,有效提升了模型的细节表征能力。

    一种基于语义信息的无监督行人重识别方法

    公开(公告)号:CN117576723A

    公开(公告)日:2024-02-20

    申请号:CN202311512490.9

    申请日:2023-11-14

    Abstract: 本发明公开了一种基于语义信息的无监督行人重识别方法。首先构建基于语义信息的无监督行人重识别模型;确定基于语义信息的无监督行人重识别模型的损失函数;然后选择网络模型的数据集,定义数据集的batch size、最大迭代次数和学习率,设置聚类算法的初始聚类半径,获取模型的初始参数;对构建的无监督行人重识别模型进行迭代训练,得到最终的无监督行人重识别模型的参数;最后将待识别的数据输入训练好的无监督行人重识别模型,得到最终的行人重识别结果。本发明通过行人语义特征的预测来细化全局特征的伪标签,这共同减轻了全局特征聚类中的噪声,有效地减少了噪声标签的影响,并在丰富的本地上下文中学习辨别表示。

    一种基于FPGA+ARM的夜间视频图像增强系统

    公开(公告)号:CN115589455A

    公开(公告)日:2023-01-10

    申请号:CN202211274388.5

    申请日:2022-10-18

    Abstract: 本发明公开了一种基于FPGA+ARM的夜间视频图像增强系统,包括图像采集单元,运算加算单元,中央控制处理单元,显示单元四个部分。运算加速单元利用FPGA的并行处理和高频特性,实现简化后的三个不同尺度的高斯滤波器。中央控制处理单元利用ARM较强的逻辑运算能力和移植简单的特性,来完成复杂度较高的自适应直方图均衡化算法部分和逻辑控制。本发明视频图像采集单元支持DVP和Cameralink接口,运算加速单元利用FPGA的并行特性提升计算速率,中央控制单元通过ARM来进行复杂的逻辑和算数运算,最后通过显示单元输出结果。相对于传统系统,本发明在能够更加精确的显示出夜间图像的边缘信息,同时通过FPGA+ARM的组合满足了系统实时性的需求。

Patent Agency Ranking