一种基于无线信号和视频信息的多模态手势识别方法

    公开(公告)号:CN118230410A

    公开(公告)日:2024-06-21

    申请号:CN202410248078.9

    申请日:2024-03-05

    申请人: 西北大学

    摘要: 本发明公开了一种基于无线信号和视频信息的多模态手势识别方法:步骤S1:采集无线信号和手势视频数据;步骤S2:获取CSI信息;步骤S3:得到幅值序列;步骤S4:对幅值序列预处理;步骤S5:将预处理的CSI数据分为有标签和无标签两部分;步骤S6:循环训练完成CSI特征提取;步骤S7:得到手势动作图;步骤S8:得到骨架手势动作数据集;步骤S9:提取手势视频骨架特征;步骤S10:得到视频流手势动作特征;步骤S11:融合;步骤S12:对融合特征进行手势预测得到识别结果。本发明解决了基于单模态的手势识别方法中因多变的环境等固有限制因素导致识别精度下降的问题,提升了手势识别模型的识别准确率和鲁棒性,可广泛应用于手势识别乃至动作识别领域。

    一种基于三维卷积的时空特征多层次融合的行为识别方法

    公开(公告)号:CN114677704B

    公开(公告)日:2024-03-26

    申请号:CN202210166930.9

    申请日:2022-02-23

    申请人: 西北大学

    摘要: 本发明公开了一种基于三维卷积的时空特征多层次融合的行为识别方法,该方法针对行为识别任务中视频能够提供更加丰富特征信息,采用三维卷积核以及时间和空间双流框架作为网络主干,其中一个分支提取视频时间特征,另外一个分支提取视频的空间特征。在不同的行为中,考虑到视频中的行为小目标在识别网络中的高层网络部分容易特征丢失,快节奏的行为不容易被网络感受,提出了将不同感受野上的时间和空间区域的特征均考虑进网络。以多层特征融合模块来均衡空间特征和时间特征对于最后行为分类结果的影响,充分利用提取到的多层次特征。该方法提取视频中的时间和空间特征,并对其进行融合和行为识别,相较于现有相关行为识别方法,具有更高的准确性。

    一种矢量几何模型压缩方法

    公开(公告)号:CN102665027A

    公开(公告)日:2012-09-12

    申请号:CN201210118488.9

    申请日:2012-04-20

    申请人: 西北大学

    IPC分类号: H04N1/41

    摘要: 本发明公开了一种矢量几何模型压缩方法。方法中采用随机矩阵对网格几何进行抽样并完成压缩,之后通过抽样信号恢复出原始信号的稀疏表达方式,再通过逆拉普拉斯算子恢复出原始的几何信号,完成解压缩。该压缩方法可以快速完成对矢量几何模型的压缩,并可以按照任意精度设定阈值,控制恢复出模型的效果。

    一种基于无线和视频特征融合的步态识别方法

    公开(公告)号:CN114783054A

    公开(公告)日:2022-07-22

    申请号:CN202210300680.3

    申请日:2022-03-24

    申请人: 西北大学

    摘要: 本发明公开了一种基于的无线和视频特征融合的步态识别方法,该方法包括:使用视频采集设备获取行人步态识别视频数据,对视频帧利用分割网络获得高质量的行人轮廓图序列,对轮廓图进行标准化裁剪操作处理成统一格式,然后使用基于时间空间的深度神经网络获取行人的视频特征;使用普通商用无线信号设备,一端发送物理层信道状态信息CSI数据,另外一端接收,对CSI数据进行去噪以及归一化预处理,用多尺度卷积神经网络对预处理之后的CSI数据进行行人的无线特征提取;最后将提取到的无线和视频的特征进行融合,进行身份预测。该方法结合了无线和视频两个模态的数据进行步态识别,相对于现有的相关技术,具有更好的鲁棒性,更加适合多变的复杂场景。

    一种基于三维卷积的时空特征多层次融合的行为识别方法

    公开(公告)号:CN114677704A

    公开(公告)日:2022-06-28

    申请号:CN202210166930.9

    申请日:2022-02-23

    申请人: 西北大学

    摘要: 本发明公开了一种基于三维卷积的时空特征多层次融合的行为识别方法,该方法针对行为识别任务中视频能够提供更加丰富特征信息,采用三维卷积核以及时间和空间双流框架作为网络主干,其中一个分支提取视频时间特征,另外一个分支提取视频的空间特征。在不同的行为中,考虑到视频中的行为小目标在识别网络中的高层网络部分容易特征丢失,快节奏的行为不容易被网络感受,提出了将不同感受野上的时间和空间区域的特征均考虑进网络。以多层特征融合模块来均衡空间特征和时间特征对于最后行为分类结果的影响,充分利用提取到的多层次特征。该方法提取视频中的时间和空间特征,并对其进行融合和行为识别,相较于现有相关行为识别方法,具有更高的准确性。

    一种基于强化学习的目标计数方法

    公开(公告)号:CN118172724A

    公开(公告)日:2024-06-11

    申请号:CN202410234561.1

    申请日:2024-03-01

    申请人: 西北大学

    摘要: 本发明提供了一种一种基于强化学习的目标计数方法,包括:步骤S1,图像预处理;步骤S2,映射至网格;步骤S3,获取密集区域;步骤S4,获取最佳密集区域划分:采用RegionNet进行步骤S3中获得的密集区域的边缘细化,设定相应的状态函数、动作选择以及奖励函数,获取最佳密集区域划分。步骤S5,获取图像中的人数。本发明尝试探索利用强化学习的思想对图像人群分布不均匀的区域按照人员聚集程度进行划分,将划分后的人群非密集区和密集区分别采用基于检测的人数计数和基于密度的人数计数的方法对最终的总人数进行估计,从而解决在不均匀分布场景下导致人数计数误差率较高的问题,进一步提高人群计数方法的准确率和模型的鲁棒性。