一种语义感知的跨模态行人重识别方法

    公开(公告)号:CN117542084B

    公开(公告)日:2024-08-20

    申请号:CN202311659687.5

    申请日:2023-12-06

    Applicant: 湖南大学

    Abstract: 本申请涉及一种语义感知的跨模态行人重识别方法,该方法包括:获取若干身份的行人图像及其对应的身份标签;对可见光图像进行数据增强得到辅助图像;构建跨模态语义感知网络模型,基于可见光图像、红外图像以及辅助图像训练跨模态语义感知网络模型;将测试可见光图像、测试红外图像分别输入至训练好的跨模态语义感知网络模型,得到可见光模态的行人特征和红外模态的行人特征;将其中一个模态的行人特征作为查询集,另一模态的行人特征作为图库集,计算查询集中各行人特征分别与图库集中各行人特征之间的相似度并排序,基于排序结果得到跨模态行人重识别结果。该方法可以强调与身份相关的语义特征并增强模态不变的细粒度表示。

    基于姿态特征对齐的跨模态行人重识别方法

    公开(公告)号:CN117333908A

    公开(公告)日:2024-01-02

    申请号:CN202311433431.2

    申请日:2023-10-31

    Applicant: 湖南大学

    Abstract: 一种基于姿态特征对齐的跨模态行人重识别方法,包括:1、构建训练集;2、构建跨模态行人重识别网络,包括双流网络、姿态估计器、姿态引导特征增强块和第一广义均值池化层;3、选取可见光模态图像、红外模态图像,并通过数据增广得到额外模态图像,并输入到跨模态行人重识别网络中,得到最终的拼接特征;4、对跨模态行人重识别网络进行模态特征对齐学习。本发明通过引入人物关键部位特征来增强特征分辨能力,从而消除类内干扰,并引导跨模态行人重识别网络同时学习同一人物的跨模态一致特征,同时本发明提出了模态特征对齐学习方法,从特征分布对齐和分层聚合两个方面来减少了模态的巨大差异,还充分考虑了模态内和模态间的约束。

    一种基于两阶段的噪声鲁棒行人重识别方法

    公开(公告)号:CN114022904A

    公开(公告)日:2022-02-08

    申请号:CN202111304590.3

    申请日:2021-11-05

    Applicant: 湖南大学

    Abstract: 本发明公开一种基于两阶段的噪声鲁棒行人重识别方法,包括步骤:输入带标签噪声的训练集;第一阶段:根据训练集的给定标签计算网络模型的交叉熵损失函数;根据预测标签计算标签调整正则化损失函数;计算纯样本损失函数;整合三项损失函数,得到自调整策略损失函数并分别训练两个不同的网络模型;第二阶段:更新可靠的预测标签集得到修正的交叉熵损失函数;计算对称的相对熵损失函数;寻找可靠三元组,计算噪声鲁棒的三元组损失函数;联合三项损失函数,得到网络模型的第二阶段总损失函数,并协同监督两个网络模型的学习,通过联合所有损失函数对两个网络模型进行迭代更新;测试性能,在含有噪声标签的设定下达到鲁棒性极好的行人重识别目的。

    一种语义感知的跨模态行人重识别方法

    公开(公告)号:CN117542084A

    公开(公告)日:2024-02-09

    申请号:CN202311659687.5

    申请日:2023-12-06

    Applicant: 湖南大学

    Abstract: 本申请涉及一种语义感知的跨模态行人重识别方法,该方法包括:获取若干身份的行人图像及其对应的身份标签;对可见光图像进行数据增强得到辅助图像;构建跨模态语义感知网络模型,基于可见光图像、红外图像以及辅助图像训练跨模态语义感知网络模型;将测试可见光图像、测试红外图像分别输入至训练好的跨模态语义感知网络模型,得到可见光模态的行人特征和红外模态的行人特征;将其中一个模态的行人特征作为查询集,另一模态的行人特征作为图库集,计算查询集中各行人特征分别与图库集中各行人特征之间的相似度并排序,基于排序结果得到跨模态行人重识别结果。该方法可以强调与身份相关的语义特征并增强模态不变的细粒度表示。

    一种基于两阶段的噪声鲁棒行人重识别方法

    公开(公告)号:CN114022904B

    公开(公告)日:2023-01-24

    申请号:CN202111304590.3

    申请日:2021-11-05

    Applicant: 湖南大学

    Abstract: 本发明公开一种基于两阶段的噪声鲁棒行人重识别方法,包括步骤:输入带标签噪声的训练集;第一阶段:根据训练集的给定标签计算网络模型的交叉熵损失函数;根据预测标签计算标签调整正则化损失函数;计算纯样本损失函数;整合三项损失函数,得到自调整策略损失函数并分别训练两个不同的网络模型;第二阶段:更新可靠的预测标签集得到修正的交叉熵损失函数;计算对称的相对熵损失函数;寻找可靠三元组,计算噪声鲁棒的三元组损失函数;联合三项损失函数,得到网络模型的第二阶段总损失函数,并协同监督两个网络模型的学习,通过联合所有损失函数对两个网络模型进行迭代更新;测试性能,在含有噪声标签的设定下达到鲁棒性极好的行人重识别目的。

Patent Agency Ranking