一种基于相对位置的车辆部件检测方法和系统

    公开(公告)号:CN107016390B

    公开(公告)日:2019-11-12

    申请号:CN201710234936.4

    申请日:2017-04-11

    Abstract: 本发明公开了一种基于相对位置的车辆部件检测方法和系统,其中方法的实现包括离线训练和在线检测部分,离线训练部分包括:采集车辆样本图像,提取样本车辆部件的样本感兴趣区域的相对位置;利用相对位置建立高斯模型,得到先验信息,利用先验信息更新样本感兴趣区域在快速卷积神经网络中的原始得分,由此得到训练好的相对位置网络;在线检测部分包括:输入车辆图像,提取车辆部件的感兴趣区域,将感兴趣区域输入相对位置网络得到感兴趣区域的得分,得分最高的感兴趣区域为车辆部件目标区域。本发明基于车辆部件的相对位置信息进行车辆部件检测显著提高了车辆部件检测的可靠性,进一步增强了车辆部件检测的准确性。

    一种基于相对位置的车辆部件检测方法和系统

    公开(公告)号:CN107016390A

    公开(公告)日:2017-08-04

    申请号:CN201710234936.4

    申请日:2017-04-11

    Abstract: 本发明公开了一种基于相对位置的车辆部件检测方法和系统,其中方法的实现包括离线训练和在线检测部分,离线训练部分包括:采集车辆样本图像,提取样本车辆部件的样本感兴趣区域的相对位置;利用相对位置建立高斯模型,得到先验信息,利用先验信息更新样本感兴趣区域在快速卷积神经网络中的原始得分,由此得到训练好的相对位置网络;在线检测部分包括:输入车辆图像,提取车辆部件的感兴趣区域,将感兴趣区域输入相对位置网络得到感兴趣区域的得分,得分最高的感兴趣区域为车辆部件目标区域。本发明基于车辆部件的相对位置信息进行车辆部件检测显著提高了车辆部件检测的可靠性,进一步增强了车辆部件检测的准确性。

    一种基于车辆特征点的车辆部件检测方法和系统

    公开(公告)号:CN106971187B

    公开(公告)日:2019-07-09

    申请号:CN201710238079.5

    申请日:2017-04-12

    Abstract: 本发明公开了一种基于车辆特征点的车辆部件检测方法和系统,其中方法的实现包括:采集车辆图像,提取车辆部件的车辆特征点和车辆部件的候选区域;当候选区域的中心与车辆特征点的距离小于阈值得到车辆部件的感兴趣区域,在感兴趣区域内提取车辆部件的目标区域。本发明基于车辆部件的车辆特征点挑选感兴趣区域,可以降低感兴趣区域冗余并提高感兴趣区域质量,进而得到车辆部件的目标区域,提高了最终的车辆部件检测性能和准确率,并且在光照变化和噪声污染下的准确性和稳定性也更好。

    一种跨模态行人重识别方法、装置及电子设备

    公开(公告)号:CN119339319A

    公开(公告)日:2025-01-21

    申请号:CN202411361683.3

    申请日:2024-09-27

    Abstract: 本申请属于计算机视觉和自然语言处理技术领域,具体公开了一种跨模态行人重识别方法、装置及电子设备,该方法包括:获取第一正负样本集合和第二正负样本集合;基于样本集合对跨模态行人重识别模型进行双边对比学习训练;其中,第一正负样本集合是通过将属于同一行人的图文样本组成正样本对以及将属于不同行人的图文样本组成负样本对所构建的;第二正负样本集合是通过将属于同一行人的同一种属性的细粒度文本特征和细粒度视觉特征组成正样本对以及将属于不同行人或不同种属性的细粒度文本特征和细粒度视觉特征组成负样本对所构建的。通过本申请能够实现跨模态行人重识别模型兼顾全局表征的学习的同时建模更细粒度的局部特征。

    基于多任务学习的抠图方法及装置

    公开(公告)号:CN118229723A

    公开(公告)日:2024-06-21

    申请号:CN202410250369.1

    申请日:2024-03-05

    Inventor: 桑农 张仁恺

    Abstract: 本申请实施例提供一种基于多任务学习的抠图方法及装置,涉及计算机视觉技术领域,其中方法包括:获取待抠图的原始图像;将原始图像输入至预先训练好的多任务学习模型,获取多任务学习模型输出的透明度遮罩图作为抠图结果;其中,多任务学习模型包括共享编码器、语义分支模块、细节分支模块和基于亲和力的特征传播模块,语义分支模块包括语义分支特征提取模块和语义分支解码器,细节分支模块包括细节分支特征提取模块和细节分支解码器,特征传播模块嵌入语义分支解码器和细节分支解码器之间。本申请实施例在双解码器之间嵌入基于亲和力的特征传播模块,从而缓解传统多任务学习模型潜在的负迁移问题,使得整体模型达到更好的抠图性能。

    一种基于生成对抗网络的噪声合成及其模型训练方法

    公开(公告)号:CN116912139B

    公开(公告)日:2024-04-26

    申请号:CN202310818272.1

    申请日:2023-07-04

    Abstract: 本发明公开了一种基于生成对抗网络的噪声合成及其模型训练方法,属于计算机视觉技术领域。本发明第首先将噪声的合成过程分解为信号相关部分噪声合成和信号无关部分噪声合成,并将信号相关部分和信号无关部分噪声相加后得到合成噪声图像;再通过利用傅立叶卷积的方法来学习图像中噪声的频域和空间域信息并进行融合,利用融合信息对合成的噪声和真实的噪声进行分类判别;最后通过预训练的去噪模型对合成的噪声和真实的噪声分别进行去噪,并对去噪后的图像进行正则化约束,由此实现合成模型的收敛。本发明方法所合成的噪声图像更符合真实噪声分布的噪声图像。

    基于上下文增强的遥感图像目标检测模型建立方法及应用

    公开(公告)号:CN112200045B

    公开(公告)日:2024-03-19

    申请号:CN202011059137.6

    申请日:2020-09-30

    Inventor: 左峥嵘 张维 桑农

    Abstract: 本发明公开了一种基于上下文增强的遥感图像目标检测模型建立方法及应用,属于图像处理技术领域,包括:基于神经网络建立待训练的目标检测模型,用于对遥感图像进行目标检测,并对其进行训练,得到基于上下文增强的遥感图像目标检测模型;目标检测模型中,各模块分别用于:提取遥感图像的多尺度特征图Fs;提取Fs的全局上下文信息,得到MA;分别增强Fs中的边界信息和类别信息,得到#imgabs0#和#imgabs1#分别捕捉#imgabs2#和#imgabs3#中通道间的信息关联,得到通道权重Wd和Wc;根据Wd将MA和#imgabs4#融合,得到边界信息增强的特征图#imgabs5#根据Wc将MA和#imgabs6#融合,得到类别信息增强的特征图#imgabs7#将Fs、#imgabs8#以及#imgabs9#融合,得到特征图#imgabs10#对#imgabs11#进行目标检测。本发明能够提高遥感图像目标检测的精度。

    基于场景可见性的3D语义占据预测方法、系统及介质

    公开(公告)号:CN117649580A

    公开(公告)日:2024-03-05

    申请号:CN202311580534.1

    申请日:2023-11-23

    Abstract: 本发明公开了一种基于场景可见性的3D语义占据预测方法、系统及介质,属于计算机视觉及自动驾驶技术领域,方法包括:构建双边特征融合模块,以对体素特征分别进行局部增强、自注意力全局增强后融合输出;将图像特征编码模块、2D‑3D视角转换模块、双边特征融合模块、占据解码模块和语义解码模块依次连接得到3D语义占据预测模型;构建可见性掩码生成模块,用于将一定范围的3D场景的所有体素分为可见体素和不可见体素,构建监督可见体素预测结果、不可见体素预测结果的一对一交叉熵监督损失结构、3D邻域块分布损失结构,结合损失结构和样本集训练3D语义占据预测模型,以用于后续预测。提高了对当前场景语义占据预测的准确度。

    基于跨摄像头自蒸馏的行人重识别模型建立方法及其应用

    公开(公告)号:CN116229512A

    公开(公告)日:2023-06-06

    申请号:CN202310176476.X

    申请日:2023-02-27

    Abstract: 本发明公开了基于跨摄像头自蒸馏的行人重识别模型建立方法及其应用,属于行人重识别领域,包括:利用特征提取网络提取行人图片的特征后聚类,标注全局伪标签,按摄像头将聚类类别划分为多个子聚类,标注局部伪标签;标注完成后得到训练集;构建包含特征提取网络以及与摄像头一一对应的多个分类器的监督网络,各分类器分别根据特征进行分类,得到分类概率分布;利用训练集对监督网络进行训练;训练损失包括分类损失和蒸馏损失,分别表示同摄像头分类概率分布与局部伪标签之间的差异,以及跨摄像头分类概率分布与同摄像头分类概率分布之间的差异;重复以上步骤,直至特征提取网络收敛,输出该网络。本发明能够提高无监督行人重识别的准确度。

Patent Agency Ranking