基于梯度边界图和多模卷积融合的动作识别方法及系统

    公开(公告)号:CN108288016B

    公开(公告)日:2021-09-03

    申请号:CN201710018537.4

    申请日:2017-01-10

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于梯度边界图和多模卷积融合的动作识别方法及系统,包括步骤:S1基于原始视频构造连续帧集;S2计算连续帧集中相邻两帧图像间的梯度边界值,从而获得梯度边界图集;S3计算连续帧集中相邻两帧图像间的帧间光流,从而获得光流图集;S4以原始视频的代表帧、梯度边界图集和光流图集为输入,采用卷积神经网络获得原始视频的多模CNN特征;S5融合原始视频的多模CNN特征,得到融合特征;S6基于融合特征,采用动作分类算法进行动作识别。本发明增加了梯度边界图这一重要的动作时空信息,并提出了多模数据卷积融合方法,保证了多模时空特征融合的一致性,提升了视频中人体动作特征描述精确性,提高了人体动作识别率。

    基于全局显著边缘区域的人体动作特征提取方法

    公开(公告)号:CN105550678B

    公开(公告)日:2019-01-18

    申请号:CN201610075788.1

    申请日:2016-02-03

    Applicant: 武汉大学

    Abstract: 本发明公开了基于全局显著边缘区域的人体动作特征提取方法,利用一个区域和整个图像的对比度来计算显著度;减少色彩空间的颜色数量,平滑颜色空间的显著度;根据相邻区域的空间关系计算显著性区域;对二值化阈值分割出的前景区域做形态学梯度变化,生成全局显著边缘区域;遍历视频帧不同尺度下所有网格的强角点;在显著边缘区域采集光流幅值不为零的关键特征点;根据修正后光流场求强角点的位移;用强角点连续多帧坐标位移轨迹,以及邻域梯度矢量形成人体动作局部时空特征。本发明通过全局显著边缘区域提取动作特征,剔除与人体运动无关的背景噪声点,消除相机运动对光流计算的影响,提升人体动作局部时空特征描述的精确性,提高人体行为识别率。

    基于全局显著边缘区域的人体动作特征提取方法

    公开(公告)号:CN105550678A

    公开(公告)日:2016-05-04

    申请号:CN201610075788.1

    申请日:2016-02-03

    Applicant: 武汉大学

    Abstract: 本发明公开了基于全局显著边缘区域的人体动作特征提取方法,利用一个区域和整个图像的对比度来计算显著度;减少色彩空间的颜色数量,平滑颜色空间的显著度;根据相邻区域的空间关系计算显著性区域;对二值化阈值分割出的前景区域做形态学梯度变化,生成全局显著边缘区域;遍历视频帧不同尺度下所有网格的强角点;在显著边缘区域采集光流幅值不为零的关键特征点;根据修正后光流场求强角点的位移;用强角点连续多帧坐标位移轨迹,以及邻域梯度矢量形成人体动作局部时空特征。本发明通过全局显著边缘区域提取动作特征,剔除与人体运动无关的背景噪声点,消除相机运动对光流计算的影响,提升人体动作局部时空特征描述的精确性,提高人体行为识别率。

    一种基于视频局部特征字典的人体动作分类方法

    公开(公告)号:CN105930792A

    公开(公告)日:2016-09-07

    申请号:CN201610245003.0

    申请日:2016-04-19

    Applicant: 武汉大学

    CPC classification number: G06K9/00718 G06K9/00744

    Abstract: 本发明公开了一种基于视频局部特征字典的人体动作分类方法,首先从具有类别标签的训练视频中提取局部特征,每段视频中的特征向量集合构成一个特征包;将特征包进行分组,利用多示例学习方法学习局部特征分类器,多示例学习中采用交叉验证的方式,并且更新正示例时只将每个包中排名最大的多个示例标记为正示例;将学习到的分类器作为特征编码的字典,利用最大池化法对局部特征响应进行池化得到视频的全局向量表达;最后利用全局特征向量进行学习,得到每个动作类别的分类器,利用该分类器对新的视频中的动作进行分类。本发明有利于提升估计的准确性,避免分类对初始值的记忆;同时保证了估计的正样本的正确率。

    安全防范网络内固定防护对象的风险评估方法及系统

    公开(公告)号:CN103353917B

    公开(公告)日:2016-03-30

    申请号:CN201310141016.X

    申请日:2013-04-22

    Applicant: 武汉大学

    Abstract: 本发明公开了一种安全防范网络内固定防护对象的风险评估方法及系统,属于系统安全防范技术领域。本发明系统包括:数据获取模块,用来获取安全防范系统内安防节点位置、安防节点的防护半径和防护对象位置;数据预处理模块,用来对数据进行归一化;防护对象风险评估模块,用来基于防护对象与安防节点的物理距离、安防节点的防护半径以及安防节点的防护性能衰减,获取防护对象的风险评估值。本发明能帮助安全防范系统管理人员了解防护区域内防护对象的风险值,可以成为公共安全体系建设的一种技术支撑,指导安全防范系统的建设。

    安全防范网络内固定防护对象的风险评估方法及系统

    公开(公告)号:CN103353917A

    公开(公告)日:2013-10-16

    申请号:CN201310141016.X

    申请日:2013-04-22

    Applicant: 武汉大学

    Abstract: 本发明公开了一种安全防范网络内固定防护对象的风险评估方法及系统,属于系统安全防范技术领域。本发明系统包括:数据获取模块,用来获取安全防范系统内安防节点位置、安防节点的防护半径和防护对象位置;数据预处理模块,用来对数据进行归一化;防护对象风险评估模块,用来基于防护对象与安防节点的物理距离、安防节点的防护半径以及安防节点的防护性能衰减,获取防护对象的风险评估值。本发明能帮助安全防范系统管理人员了解防护区域内防护对象的风险值,可以成为公共安全体系建设的一种技术支撑,指导安全防范系统的建设。

    基于时间尺度不变性的视频中人体动作识别方法及系统

    公开(公告)号:CN108288015B

    公开(公告)日:2021-10-22

    申请号:CN201710018095.3

    申请日:2017-01-10

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于时间尺度不变性的视频中人体动作识别方法及系统,包括步骤:S1基于原始视频构造子动作视频段;S2分别获取各子动作视频段的代表帧;S3获得各代表帧的光流强度图像集;S4分别获得各代表帧的图像卷积特征和光流卷积特征;S5分别融合各代表帧的图像卷积特征和光流卷积特征,获得融合特征,所有融合特征构成子动作特征集;S6采用LSTM神经网络对子动作特征集中各融合特征分别进行动作识别,获得多阶段的动作识别结果;S7融合多阶段的动作识别结果,得最终的动作识别结果。本发明对视频中持续时长变化差异很大的动作具有很好的适应性,可提升视频中人体动作特征描述的精确性和人体动作识别率。

    基于梯度边界图和多模卷积融合的动作识别方法及系统

    公开(公告)号:CN108288016A

    公开(公告)日:2018-07-17

    申请号:CN201710018537.4

    申请日:2017-01-10

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于梯度边界图和多模卷积融合的动作识别方法及系统,包括步骤:S1.基于原始视频构造连续帧集;S2.计算连续帧集中相邻两帧图像间的梯度边界值,从而获得梯度边界图集;S3.计算连续帧集中相邻两帧图像间的帧间光流,从而获得光流图集;S4.以原始视频的代表帧、梯度边界图集和光流图集为输入,采用卷积神经网络获得原始视频的多模CNN特征;S5.融合原始视频的多模CNN特征,得到融合特征;S6.基于融合特征,采用动作分类算法进行动作识别。本发明增加了梯度边界图这一重要的动作时空信息,并提出了多模数据卷积融合方法,保证了多模时空特征融合的一致性,提升了视频中人体动作特征描述精确性,提高了人体动作识别率。

    基于时间尺度不变性的视频中人体动作识别方法及系统

    公开(公告)号:CN108288015A

    公开(公告)日:2018-07-17

    申请号:CN201710018095.3

    申请日:2017-01-10

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于时间尺度不变性的视频中人体动作识别方法及系统,包括步骤:S1基于原始视频构造子动作视频段;S2分别获取各子动作视频段的代表帧;S3获得各代表帧的光流强度图像集;S4分别获得各代表帧的图像卷积特征和光流卷积特征;S5分别融合各代表帧的图像卷积特征和光流卷积特征,获得融合特征,所有融合特征构成子动作特征集;S6采用LSTM神经网络对子动作特征集中各融合特征分别进行动作识别,获得多阶段的动作识别结果;S7融合多阶段的动作识别结果,得最终的动作识别结果。本发明对视频中持续时长变化差异很大的动作具有很好的适应性,可提升视频中人体动作特征描述的精确性和人体动作识别率。

    基于运动显著性的视频人体行为识别方法

    公开(公告)号:CN107463912A

    公开(公告)日:2017-12-12

    申请号:CN201710682736.5

    申请日:2017-08-10

    CPC classification number: G06K9/00342 G06K9/4642 G06K9/4671 G06K9/6267

    Abstract: 本发明公开了基于运动显著性的视频人体行为识别方法,利用运动显著性检测算法对行为视频帧进行运动显著性检测,得到运动显著图像;采用非最大值抑制采样NMS算法基于运动显著图像计算运动显著区域候选框;围绕运动显著区域候选框裁剪视频帧获取完整包含人体行为的图像块;将裁剪得到的图像块缩放到深度卷积神经网络输入数据所要求尺寸;使用深度卷积神经网络基于缩放后的图像块进行人体行为深度特征提取;基于人体行为深度特征进行特征分类,得到人体识别类别结果。本方法围绕行为显著运动区域来构建卷积网络所需的图像块,有效捕捉人体行为变化区域,提取辨识力好的人体行为深度卷积特征,有效提升了人体行为识别准确率。

Patent Agency Ranking