一种基于补丁语义亲和力增强的CAM优化方法

    公开(公告)号:CN119027674B

    公开(公告)日:2025-04-22

    申请号:CN202411514270.4

    申请日:2024-10-29

    Abstract: 本发明公开了一种基于补丁语义亲和力增强的CAM优化方法,包括:提取多头自注意力权重;使用头平均操作去除冗余信息,再通过全局平均池化聚合每个注意力图的全局特征,并将聚合的特征向量输入多层感知机中进行相互作用,获得考虑了不同层注意力重要性的增强注意力图;进行平均操作融合后除去注意力中类令牌对应维度,剩下的权重作为增强后的补丁语义亲和力矩阵;输出的补丁令牌生成CAM,利用语义亲和力捕捉更多空间关系和细粒度信息的能力,将补丁语义亲和力矩阵与CAM作矩阵相乘完成优化。本发明在无需额外计算的情况下获取包含语义亲和力信息的注意力权重矩阵,并通过头平均注意力融合模块对注意力权重矩阵进行融合增强。

    基于重跟踪策略的前景感知Transformer目标跟踪方法及系统

    公开(公告)号:CN119832027A

    公开(公告)日:2025-04-15

    申请号:CN202510316889.2

    申请日:2025-03-18

    Abstract: 本发明公开了基于重跟踪策略的前景感知Transformer目标跟踪方法及系统,涉及图像识别与目标跟踪技术领域,包括:将最近帧模板图像和搜索区域图像输入预先构建的预处理层后分别生成模板token序列和搜索token序列,并缓存至重跟踪缓存区;然后将两个序列拼接得到混合序列,并输入至预先建立的前景感知编码器内,得到输出序列,对输出序列中的搜索区域特征序列进行填充并输入至预测头内,得到预测结果;若连续t帧的预测结果均低于预设预期值,则启用重跟踪策略,经通用编码器得到重跟踪的预测结果,并在重跟踪评估区进行综合评估,得到最佳跟踪结果。该方法不仅有效减轻背景干扰,还能及时纠正跟踪偏差。

    一种基于补丁语义亲和力增强的CAM优化方法

    公开(公告)号:CN119027674A

    公开(公告)日:2024-11-26

    申请号:CN202411514270.4

    申请日:2024-10-29

    Abstract: 本发明公开了一种基于补丁语义亲和力增强的CAM优化方法,包括:提取多头自注意力权重;使用头平均操作去除冗余信息,再通过全局平均池化聚合每个注意力图的全局特征,并将聚合的特征向量输入多层感知机中进行相互作用,获得考虑了不同层注意力重要性的增强注意力图;进行平均操作融合后除去注意力中类令牌对应维度,剩下的权重作为增强后的补丁语义亲和力矩阵;输出的补丁令牌生成CAM,利用语义亲和力捕捉更多空间关系和细粒度信息的能力,将补丁语义亲和力矩阵与CAM作矩阵相乘完成优化。本发明在无需额外计算的情况下获取包含语义亲和力信息的注意力权重矩阵,并通过头平均注意力融合模块对注意力权重矩阵进行融合增强。

    一种基于掩码先验和分层聚合Transformer的遮挡行人重识别方法

    公开(公告)号:CN117994823B

    公开(公告)日:2024-06-25

    申请号:CN202410406482.4

    申请日:2024-04-07

    Abstract: 本发明公开了一种基于掩码先验和分层聚合Transformer的遮挡行人重识别方法,包括以下步骤:(1)获取多种数据集(2)构建掩码语义信息提取器;(3)构建用于处理图片信息,进行提取特征的Transformer骨干网络;(4)构建用于提取细粒度部分特征的分层特征聚合模块;(5)构建用于提取判别性全局特征的多特征补偿模块;(6)合并步骤(2)‑(5),构建基于掩码先验以及分层聚合Transformer的遮挡行人重识别框架;(7)构建用于遮挡行人重识别模型的损失函数;(8)加载由IMAGENET训练的预训练权重,利用Occluded‑Duke数据集的训练集对模型进行训练,测试集对得到的模型进行测试,寻找最优模型;本发明引导模型关注非遮挡身体部位以及提取判别性信息用于行人匹配。

    一种基于辅助模态增强和多尺度特征融合的跨模态行人重识别方法

    公开(公告)号:CN117994822B

    公开(公告)日:2024-06-14

    申请号:CN202410406480.5

    申请日:2024-04-07

    Abstract: 本发明公开了一种基于辅助模态增强和多尺度特征融合的跨模态行人重识别方法,包括以下步骤:(1)获取原始图像,划分训练集、验证集和测试集;对训练集中的可见光图像和红外图像进行预处理;(2)利用ResNet50作为骨干网络,添加辅助模态增强模块;(3)将步骤(2)输出的特征继续输入到由ResNet50进行特征提取和融合;(4)将ResNet50最终的输出特征进行全局平均池化和批量归一化,计算局部语义一致性损失;本发明减小可见光与红外之间的模态差异,学习到更多模态共享的身份信息,还能捕获不同感受野的身份信息,实现行人身份特征的充分挖掘。

    一种基于辅助模态增强和多尺度特征融合的跨模态行人重识别方法

    公开(公告)号:CN117994822A

    公开(公告)日:2024-05-07

    申请号:CN202410406480.5

    申请日:2024-04-07

    Abstract: 本发明公开了一种基于辅助模态增强和多尺度特征融合的跨模态行人重识别方法,包括以下步骤:(1)获取原始图像,划分训练集、验证集和测试集;对训练集中的可见光图像和红外图像进行预处理;(2)利用ResNet50作为骨干网络,添加辅助模态增强模块;(3)将步骤(2)输出的特征继续输入到由ResNet50进行特征提取和融合;(4)将ResNet50最终的输出特征进行全局平均池化和批量归一化,计算局部语义一致性损失;本发明减小可见光与红外之间的模态差异,学习到更多模态共享的身份信息,还能捕获不同感受野的身份信息,实现行人身份特征的充分挖掘。

    基于多尺度图像及特征层对齐的跨分辨率行人重识别方法

    公开(公告)号:CN117612266B

    公开(公告)日:2024-04-19

    申请号:CN202410095404.7

    申请日:2024-01-24

    Abstract: 本发明公开了一种基于多尺度图像及特征层对齐的跨分辨率行人重识别方法,所述方法包括:对跨分辨率样本视频进行预处理,将视频分割为连续的帧,并统一图像尺寸,选取高分辨率行人图像和低分辨率行人图像;对高分辨率行人图像进行多尺度下采样,对多尺度的图像重构网络进行训练;每个尺度的重构图像输入到与图像重构网络对应连接的行人重识别网络,对行人重识别网络进行训练;将待识别的视频处理后输入训练好的相应尺度的图像重构网络,重构的图像输入到对应的训练好的行人重识别网络,得到最终的行人特征表示。本发明解决跨分辨率的行人图像导致行人重识别的检索精度低、匹配效果差的问题,达到了提高低分辨率行人重识别的效果。

    一种基于图神经网络的动态小股行人识别方法

    公开(公告)号:CN116110074A

    公开(公告)日:2023-05-12

    申请号:CN202211537300.4

    申请日:2022-12-01

    Inventor: 刘天奇 张国庆

    Abstract: 本发明公开了一种基于图神经网络的动态小股行人识别方法,将数据集中图片进行预处理,使用特征匹配的方法将图片中背景的像素点进行匹配,通过像素点截取相应的图片,得到图片的背景特征;对行人进行动态筛选,排除不为同一组的行人,同时构建图结构;将得到的背景特征加入构建的图结构,得到新的图结构;采用多头注意力的图上下文信息感知传递的方法,寻找最优模型;解决了特征提取过程中受到局部扰动而特征不鲁棒的问题,提高了行人再识别的准确率;基于该算法设计的动态小股行人重识别方法,能够快速获取想要查找的行人以及小股行人。

    一种基于局部特征感知图文跨模态模型的行人识别方法和模型的训练方法

    公开(公告)号:CN114743217A

    公开(公告)日:2022-07-12

    申请号:CN202210318598.3

    申请日:2022-03-29

    Inventor: 陈裕豪 张国庆

    Abstract: 本发明公开了模式识别技术领域的一种基于局部特征感知图文跨模态模型的行人识别方法和模型的训练方法,所述行人识别方法包括:获取行人的图文数据,将行人的图文数据输入到预先训练好的局部特征感知图文跨模态模型中进行特征提取,输出对行人的识别结果。所述局部特征感知图文跨模态模型包括视觉特征提取模块和文本特征提取模块,在视觉特征提取上引入PCB局部特征学习,在文本特征提取上引入多分支卷积的结构,无需引入语义分割、属性学习等额外即可高效提取图文局部特征。在浅层特征、局部特征、全局特征三个层面进行跨模态匹配,逐步拉进图文特征分布。该方法结构简洁,准确率高,能推动图文跨模态行人检索领域在实际场景中的应用。

    一种基于跨视图核协同表示的行人再识别方法

    公开(公告)号:CN111353443A

    公开(公告)日:2020-06-30

    申请号:CN202010141525.2

    申请日:2020-03-02

    Inventor: 张国庆 蒋同

    Abstract: 本发明涉及一种基于跨视图核协同表示的行人再识别方法,属于行人再识别技术领域。本发明的方法首先对数据集进行预处理,然后划分训练、测试集,再进行特征提取与降维;并进行跨视图核协同表示,最后识别待测样本。本发明采用了跨视图核协同表示方法,按照不同的视图分别处理样本,用CRC协同表示同一视图下的样本得到该视图所有样本的协同表示编码,然后对不同视图下同一个人的协同表示编码加上彼此相似性约束,最后将不同视图的CRC模型和编码相似性约束整合到同一个多任务学习框架中,联合地学习跨视图样本的协同表示编码,通过这种方式使CRC更适用于行人再识别任务。因此,本方法应对跨视图行人图像间的外观差异具有更强的鲁棒性。

Patent Agency Ranking