基于小型单支卷积神经网络的视觉目标跟踪方法

    公开(公告)号:CN107292914A

    公开(公告)日:2017-10-24

    申请号:CN201710450318.3

    申请日:2017-06-15

    CPC classification number: G06T7/246 G06N3/084

    Abstract: 本发明涉及一种基于小型单支卷积神经网络的视觉目标跟踪方法,其主要技术特点是:搭建小型单支卷积神经网络;设计损失函数用于卷积神经网络的训练;对测试序列进行目标跟踪,当新视频帧到来时,根据损失函数的结果判断网络参数的更新与否;将卷积神经网络的输出结果送给二元分类器,预测出目标位置。本发明利用了深度卷积网络对目标物体强大的表示能力,构建小型单支卷积神经网络,提出新的损失函数和更新策略,增加了整体算法的跟踪精度,提高了跟踪结果的稳定性以及跟踪速率,获得了很好的目标跟踪结果。

    基于增强型深度卷积神经网络的行人再识别方法

    公开(公告)号:CN108960141B

    公开(公告)日:2021-04-23

    申请号:CN201810721706.5

    申请日:2018-07-04

    Abstract: 本发明涉及一种基于增强型深度卷积神经网络的行人再识别方法,使用基础深度学习卷积神经网络模型提取行人图像的基础深度特征,同时使用传统手动特征提取方法提取行人图像的手动特征并降维;应用特征重建模块将基础深度特征和手动特征融合成增强型深度特征;通过特征比较预测两张图像中行人是否为同一个人,联合使用分类损失函数和验证损失函数对输入图像进行分类和异同验证,以最小化联合损失为目标来训练网络,使得网络生成更有判别力的行人图像特征。本发明充分利用了手动特征和深度特征之间的互补性,提出了联合使用分类损失和验证损失函数用于监督网络训练的策略,获得了良好的性能,有效地提高行人再识别准确率。

    基于属性特征和加权的分块特征相融合的行人再识别方法

    公开(公告)号:CN109635636A

    公开(公告)日:2019-04-16

    申请号:CN201811273875.3

    申请日:2018-10-30

    CPC classification number: G06K9/00362 G06K9/629

    Abstract: 本发明涉及一种基于属性特征和加权的分块特征相融合的行人再识别方法,包括以下步骤:构造属性特征提取子网络,该子网络融合了手动提取的特征和深度神经网络提取的特征;采用设置加权的交叉熵损失函数来训练属性特征提取子网络;构造基于分块的特征提取子网络,该网络可融合多个分块的深度特征;训练基于分块的特征提取子网络,设置局部损失函数的加权融合层,自主学习不同的权重,进而赋予各局部损失函数;对整体网络进行训练,提取融合了属性特征和基于分块的深度特征的行人特征表示。本发明设计合理,其有效结合了属性特征和深度特征,在损失函数计算方法上进行优化,获得了很好的行人再识别结果,使得系统整体匹配准确率大大提升。

    基于AdaRank的深度特征和传统特征的集成方法

    公开(公告)号:CN107292259A

    公开(公告)日:2017-10-24

    申请号:CN201710450306.0

    申请日:2017-06-15

    Abstract: 本发明涉及一种基于AdaRank的深度特征和传统特征的集成方法,其主要技术特点是:将图像数据进行分割,针对不同部分分别构造并训练深度卷及神经网络,用以获得深度特征;从行人再识别数据中提取传统特征,包括LOMO特征、ELF6特征、Hog3D特征;选取如下三种度量学习方法:KISSME、kLFDA和LMNN;将所有特征与三种度量学习方法进行组合张成笛卡尔乘积,得到一系列弱排序器;利用AdaRank算法,对弱排序器进行集成学习,最终得到强排序器。本发明设计合理,结合了深度学习、多特征、度量学习、集成学习,通过构造“弱排序器”并进行集成学习,使得系统的整体性能远远高于单一特征和单一度量算法,使得系统整体匹配率大大提升,获得了很好的性能。

    一种基于身体结构划分的双线性行人再识别网络构建方法

    公开(公告)号:CN109614853B

    公开(公告)日:2023-05-05

    申请号:CN201811273872.X

    申请日:2018-10-30

    Abstract: 本发明涉及一种基于身体结构划分的双线性行人再识别网络构建方法,包括以下步骤:对原始行人图像进行身体结构分块得到多个结构子框,将多个子框组合成新的行人图像,构造结构框预测子网络;设置加权的局部损失函数来训练该结构框预测子网络;构造两个子网络,分别以原始行人图像和重组后行人图像作为输入,对应地提取全局行人特征和局部行人特征;设置双线性融合层,并将其作为全局特征和局部特征的融合层,得到最终的行人特征表示;对整体网络进行训练,得到基于身体结构划分的双线性行人再识别模型。本发明结合整体特征和局部特征,充分利用了身体结构信息,通过双线性融合方法获得更具判别力的行人特征,使得系统整体匹配准确率大大提升。

    基于全局特征损失函数的行人再识别方法

    公开(公告)号:CN108960142B

    公开(公告)日:2021-04-27

    申请号:CN201810721744.0

    申请日:2018-07-04

    Abstract: 本发明涉及一种基于全局特征损失函数的行人再识别方法,将全部输入图像分成所有可能图像对,包括表示同一人的同类对和表示不同人的异类对;计算所有可能图像对之间的特征距离,从两类图像对之间的特征距离中分别统计形成全局的距离均值和方差;构建全局特征损失函数并使用该全局特征损失函数在学习过程中减小两个方差以及增大两个均值之间的差;将全局特征损失函数与分类损失函数和验证损失函数联合使用,共同增强特征的学习。本发明设计合理,充分利用了输入全体图像中相比于单张图像更为丰富的信息,使得特征的描述能力性能远远高于单纯的单张图片特征,使得系统整体匹配率大大提高。

    基于全卷积网络的多特征融合的目标检测方法

    公开(公告)号:CN107563381B

    公开(公告)日:2020-10-23

    申请号:CN201710816619.3

    申请日:2017-09-12

    Abstract: 本发明设计了一种基于全卷积网络的多特征融合的目标检测方法,其主要技术特点是:搭建具有六个卷积层组的全卷积神经网络;利用卷积神经网络的前五组卷积层提取图像特征,并将其输出进行融合,形成融合特征图;对融合后的特征图进行卷积处理,直接产生固定数目的不同大小的目标边框;计算卷积神经网络生成的目标边框与真实边框之间的分类误差与定位误差,利用随机梯度下降法降低训练误差,得到最终训练模型的参数,最后进行测试得到目标检测结果。本发明利用了深度卷积网络对目标的强大的表示能力,构建了用于目标检测的全卷积神经网络,提出了新的融合特征方法,提高了算法的检测速度和精度,获得了良好的目标检测结果。

Patent Agency Ranking