基于多区域特征提取和融合的行人再识别方法

    公开(公告)号:CN108960140B

    公开(公告)日:2021-04-27

    申请号:CN201810721690.8

    申请日:2018-07-04

    Abstract: 本发明涉及一种基于多区域特征提取和融合的行人再识别方法,利用残差网络提取全局特征,并在训练阶段增加一个用于全局特征提取和优化的行人身份分类模块;构造用于局部特征提取的多区域特征提取子网络,并将各局部特征进行加权融合;设置包括分类模块损失和特征融合模块损失的损失函数;对网络进行训练,得到模型提取查询集和测试集的特征向量;在度量阶段,利用交叉近邻方法对特征距离进行重新度量。本发明设计合理,有效结合了全局特征和局部特征,在距离度量方法上进行优化,获得了很好的行人再识别结果,使得系统整体匹配准确率大大提升。

    针对视频数据行人再识别的LOMO3D特征提取方法

    公开(公告)号:CN107886116B

    公开(公告)日:2021-03-26

    申请号:CN201711033084.9

    申请日:2017-10-30

    Abstract: 本发明涉及一种针对视频数据行人再识别的LOMO3D特征提取方法,其技术特点是:将视频数据中的各帧分离出来,组织成图像序列的形式,并分割为一定长度的等长序列;将每个序列水平分割为若干扁平区域,并在这些区域中进一步划分子块,作为直方图统计的最小单位;对于每个子块,统计形成纹理直方图特征和HSV色域下的颜色直方图特征;将每个水平区域中的纹理和颜色直方图特征根据最大化原则进行整合并进行拼合,得到最终的LOMO3D特征描述子。本发明设计合理,充分利用了图像序列中的时空特征和时间信息,使得特征的描述能力性能远远高于单纯的空间域特征,试验表明本发明能够使得系统整体匹配率大大提升,优于目前其他的行人再识别算法。

    一种基于身体结构划分的双线性行人再识别网络构建方法

    公开(公告)号:CN109614853A

    公开(公告)日:2019-04-12

    申请号:CN201811273872.X

    申请日:2018-10-30

    Abstract: 本发明涉及一种基于身体结构划分的双线性行人再识别网络构建方法,包括以下步骤:对原始行人图像进行身体结构分块得到多个结构子框,将多个子框组合成新的行人图像,构造结构框预测子网络;设置加权的局部损失函数来训练该结构框预测子网络;构造两个子网络,分别以原始行人图像和重组后行人图像作为输入,对应地提取全局行人特征和局部行人特征;设置双线性融合层,并将其作为全局特征和局部特征的融合层,得到最终的行人特征表示;对整体网络进行训练,得到基于身体结构划分的双线性行人再识别模型。本发明结合整体特征和局部特征,充分利用了身体结构信息,通过双线性融合方法获得更具判别力的行人特征,使得系统整体匹配准确率大大提升。

    基于通道注意力机制和多层特征融合的图像超分辨率方法

    公开(公告)号:CN109886871B

    公开(公告)日:2023-04-07

    申请号:CN201910014480.X

    申请日:2019-01-07

    Abstract: 本发明涉及一种基于通道注意力机制和多层特征融合的图像超分辨率方法,在残差支路开头,使用基于深度学习的单层卷积层直接提取低分辨率图像的原始特征;使用六个级联的基于通道注意力机制和多层特征融合的卷积循环单元来提取精确的深度特征;通过反卷积层对深度特征进行上采样,并且使用单层卷积层对上采样的特征进行降维,得到高分辨率图像的残差;在映射支路,使用双三次插值方法对低分辨图像进行上采样,得到高分辨率图像的映射;将高分辨率图像的映射和残差逐像素相加得到最终的高分辨率图像。本发明设计合理,充分考虑了特征通道间的差异性,高效地利用了层次化的特征,在取得较高准确率的同时,保持了较快的运行速度。

    基于通道注意力机制和多层特征融合的图像超分辨率方法

    公开(公告)号:CN109886871A

    公开(公告)日:2019-06-14

    申请号:CN201910014480.X

    申请日:2019-01-07

    Abstract: 本发明涉及一种基于通道注意力机制和多层特征融合的图像超分辨率方法,在残差支路开头,使用基于深度学习的单层卷积层直接提取低分辨率图像的原始特征;使用六个级联的基于通道注意力机制和多层特征融合的卷积循环单元来提取精确的深度特征;通过反卷积层对深度特征进行上采样,并且使用单层卷积层对上采样的特征进行降维,得到高分辨率图像的残差;在映射支路,使用双三次插值方法对低分辨图像进行上采样,得到高分辨率图像的映射;将高分辨率图像的映射和残差逐像素相加得到最终的高分辨率图像。本发明设计合理,充分考虑了特征通道间的差异性,高效地利用了层次化的特征,在取得较高准确率的同时,保持了较快的运行速度。

    基于增强型深度卷积神经网络的行人再识别方法

    公开(公告)号:CN108960141A

    公开(公告)日:2018-12-07

    申请号:CN201810721706.5

    申请日:2018-07-04

    CPC classification number: G06K9/00362 G06K9/6247 G06K9/627

    Abstract: 本发明涉及一种基于增强型深度卷积神经网络的行人再识别方法,使用基础深度学习卷积神经网络模型提取行人图像的基础深度特征,同时使用传统手动特征提取方法提取行人图像的手动特征并降维;应用特征重建模块将基础深度特征和手动特征融合成增强型深度特征;通过特征比较预测两张图像中行人是否为同一个人,联合使用分类损失函数和验证损失函数对输入图像进行分类和异同验证,以最小化联合损失为目标来训练网络,使得网络生成更有判别力的行人图像特征。本发明充分利用了手动特征和深度特征之间的互补性,提出了联合使用分类损失和验证损失函数用于监督网络训练的策略,获得了良好的性能,有效地提高行人再识别准确率。

    基于对偶综合-解析字典学习的行人再识别方法

    公开(公告)号:CN107679461A

    公开(公告)日:2018-02-09

    申请号:CN201710816499.7

    申请日:2017-09-12

    Abstract: 本发明设计了一种基于对偶综合-解析字典学习的行人再识别方法,其主要技术特点是:从行人再识别数据中提取行人图像特征;采用局部Fisher判决分析方法将不同摄像机视角下的行人图像特征投影到公共特征空间;运用对偶综合-解析字典学习算法,在公共特征空间中学习对偶综合字典和对偶解析字典;建立行人匹配模型,并利用改进余弦公式进行行人距离计算。本发明设计合理,其通过在原始对偶综合字典学习中引入对偶解析字典,解析字典拥有判决能力,提高了综合字典的数据表示能力,使得字典能够更有效的表示数据的本征结构,获得了有效的再识别性能。

Patent Agency Ranking