基于属性特征和加权的分块特征相融合的行人再识别方法

    公开(公告)号:CN109635636A

    公开(公告)日:2019-04-16

    申请号:CN201811273875.3

    申请日:2018-10-30

    CPC classification number: G06K9/00362 G06K9/629

    Abstract: 本发明涉及一种基于属性特征和加权的分块特征相融合的行人再识别方法,包括以下步骤:构造属性特征提取子网络,该子网络融合了手动提取的特征和深度神经网络提取的特征;采用设置加权的交叉熵损失函数来训练属性特征提取子网络;构造基于分块的特征提取子网络,该网络可融合多个分块的深度特征;训练基于分块的特征提取子网络,设置局部损失函数的加权融合层,自主学习不同的权重,进而赋予各局部损失函数;对整体网络进行训练,提取融合了属性特征和基于分块的深度特征的行人特征表示。本发明设计合理,其有效结合了属性特征和深度特征,在损失函数计算方法上进行优化,获得了很好的行人再识别结果,使得系统整体匹配准确率大大提升。

    基于空间耦合关系和历史模型的目标跟踪方法

    公开(公告)号:CN106127766B

    公开(公告)日:2018-12-25

    申请号:CN201610467214.9

    申请日:2016-06-24

    Inventor: 何珂 王强 周芸

    Abstract: 本发明涉及一种基于空间耦合关系和历史模型的目标跟踪方法,其主要技术特点是:建立MIL模型并在跟踪过程中不断更新该MIL模型;利用跟踪目标的历史状态构成一个目标模型池;针对当前帧选择最佳的目标模型并估计目标位置;检测目标周边区域的关键点,利用空间相关信息预测目标位置;融合利用最佳模型估计出的目标位置和利用空间相关信息预测出的目标位置,得到最终的目标位置。本发明设计合理,以多示例学习跟踪算法为基本的跟踪模型,保存一组目标历史模型,配合空间上下文信息辅助跟踪,达到了出色的跟踪效果,能够应对各种环境变化的情况,具有良好的鲁棒性和较强的可扩展性。

    基于全卷积网络的多特征融合的目标检测方法

    公开(公告)号:CN107563381A

    公开(公告)日:2018-01-09

    申请号:CN201710816619.3

    申请日:2017-09-12

    Abstract: 本发明设计了一种基于全卷积网络的多特征融合的目标检测方法,其主要技术特点是:搭建具有六个卷积层组的全卷积神经网络;利用卷积神经网络的前五组卷积层提取图像特征,并将其输出进行融合,形成融合特征图;对融合后的特征图进行卷积处理,直接产生固定数目的不同大小的目标边框;计算卷积神经网络生成的目标边框与真实边框之间的分类误差与定位误差,利用随机梯度下降法降低训练误差,得到最终训练模型的参数,最后进行测试得到目标检测结果。本发明利用了深度卷积网络对目标的强大的表示能力,构建了用于目标检测的全卷积神经网络,提出了新的融合特征方法,提高了算法的检测速度和精度,获得了良好的目标检测结果。

    基于全卷积网络的多特征融合的目标检测方法

    公开(公告)号:CN107563381B

    公开(公告)日:2020-10-23

    申请号:CN201710816619.3

    申请日:2017-09-12

    Abstract: 本发明设计了一种基于全卷积网络的多特征融合的目标检测方法,其主要技术特点是:搭建具有六个卷积层组的全卷积神经网络;利用卷积神经网络的前五组卷积层提取图像特征,并将其输出进行融合,形成融合特征图;对融合后的特征图进行卷积处理,直接产生固定数目的不同大小的目标边框;计算卷积神经网络生成的目标边框与真实边框之间的分类误差与定位误差,利用随机梯度下降法降低训练误差,得到最终训练模型的参数,最后进行测试得到目标检测结果。本发明利用了深度卷积网络对目标的强大的表示能力,构建了用于目标检测的全卷积神经网络,提出了新的融合特征方法,提高了算法的检测速度和精度,获得了良好的目标检测结果。

    基于空间耦合关系和历史模型的目标跟踪方法

    公开(公告)号:CN106127766A

    公开(公告)日:2016-11-16

    申请号:CN201610467214.9

    申请日:2016-06-24

    Inventor: 何珂 王强 周芸

    CPC classification number: G06T2207/20081

    Abstract: 本发明涉及一种基于空间耦合关系和历史模型的目标跟踪方法,其主要技术特点是:建立MIL模型并在跟踪过程中不断更新该MIL模型;利用跟踪目标的历史状态构成一个目标模型池;针对当前帧选择最佳的目标模型并估计目标位置;检测目标周边区域的关键点,利用空间相关信息预测目标位置;融合利用最佳模型估计出的目标位置和利用空间相关信息预测出的目标位置,得到最终的目标位置。本发明设计合理,以多示例学习跟踪算法为基本的跟踪模型,保存一组目标历史模型,配合空间上下文信息辅助跟踪,达到了出色的跟踪效果,能够应对各种环境变化的情况,具有良好的鲁棒性和较强的可扩展性。

    基于蚁群的压缩域显著性检测算法

    公开(公告)号:CN105472380A

    公开(公告)日:2016-04-06

    申请号:CN201510799512.3

    申请日:2015-11-19

    Abstract: 本发明属于视频显著性检测领域,具体地说,涉及基于蚁群的压缩于显著性检测算法,其技术特点是:将视频帧划分为块并建模成一个图;从压缩码流中提取每个节点的时域和空域特征,构建时空域启发矩阵;使用蚁群算法,根据时空域启发矩阵分别获得时空域显著性图;根据人眼视觉特性和时空域显著性图的特征,自适应融合时域和空域显著性图像,得到图像显著区域。本发明设计合理,其利用蚁群算法的正反馈机制和贪婪启发搜索机制,在寻找全局最优解上更有优势,时空域信息结合更符合人眼视觉规律,自适应融合方式使得最终检测效果更加符合人眼主观感知质量。同时,本发明不依赖于视频内容变化以及编码时参数设置的影响,具有良好的鲁棒性以及可扩展性。

Patent Agency Ranking