一种基于自适应融合生成多尺度时间特征的步态识别方法

    公开(公告)号:CN116597511A

    公开(公告)日:2023-08-15

    申请号:CN202310540692.8

    申请日:2023-05-15

    Abstract: 本发明属于计算机视觉、人物分割、特征融合、身份识别等交叉技术领域,公开了一种基于自适应融合生成多尺度时间特征的步态识别方法,首先对输入的单人步态视频进行预处理,提取步态轮廓序列,经过一组连续的CNN网络层,并应用全局最大池化和全局平均池化,提取轮廓序列的部分级特征,接着经过自适应融合生成步态序列的多尺度时间特征,针对不同尺度的时间特征,分别聚合全局时间特征并学习突出空间特征,最后将这两种特征沿通道维度串联起来作为最终的步态特征。本发明保留每帧的空间外观特征,有效地用于全局时间特征聚合和突出空间特征学习,充分挖掘行人的步态运动特征,有效提升在复杂场景下进行步态识别的准确性和鲁棒性。

    基于二分图结构进行人物交互检测的多模态特征融合方法

    公开(公告)号:CN116503654A

    公开(公告)日:2023-07-28

    申请号:CN202310476894.0

    申请日:2023-04-28

    Abstract: 本发明属于计算机视觉中的人与物体交互检测领域,公开一种基于二分图结构进行人物交互检测的多模态特征融合方法,该方法首先获取一个批次的图片生成初始检测集合,然后将初始检测集合输入到骨干特征提取网络中来提取图片中的视觉信息和空间信息,再通过姿态估计提取图片中人的关键点输入到关键点特征处理网络模块进行姿态信息的获取;接着将提取到的视觉特征和空间特征进行融合输入到推理网络中得到分类逻辑输出以及通过关键点特征处理网络得到分类逻辑输出,最后将两者的逻辑输出进行融合得到最后的分类结果。本发明充分利用图片中存在的各种信息,能够得到更全面的特征表示,有效提高人与物体交互检测的准确性和鲁棒性。

    一种基于YOLO的密集行人检测方法
    4.
    发明公开

    公开(公告)号:CN117456452A

    公开(公告)日:2024-01-26

    申请号:CN202311380891.3

    申请日:2023-10-24

    Abstract: 本发明属于计算机视觉中的人物目标检测领域,公开一种基于YOLO的密集行人检测方法,该方法首先获取用于密集行人检测的CrowdHuman数据集,然后对该数据集采用Mosaic数据增强方法进行预处理,再将增强后的数据集图片输入到主干网络中提取不同尺寸的特征图,接着将特征图输入BiFPN加权双向特征金字塔网络进行特征融合得到强化特征图,最后将强化特征图输入到头部网络得到检测结果;本发明充分利用图片中存在的各种信息,能够得到更全面的特征表示,有效提高了目标人物的检测精度,极大程度上避免了因密集行人造成错检漏检的问题。

Patent Agency Ranking