-
公开(公告)号:CN105678276A
公开(公告)日:2016-06-15
申请号:CN201610036573.9
申请日:2016-01-19
Applicant: 武汉大学
CPC classification number: G06K9/00335 , G06T7/20 , G06T2207/10016
Abstract: 本发明公开了一种人体动作特征提取方法,利用快速行人检测算法检测解码图像帧中的行人;剔除行人区域中的运动矢量数据获取相机运动参数估计数据;利用相机运动的对称性及矢量差分理论,基于前一步获得的数据估计相机运动参数;根据参数估计值,消除图像运动矢量数据中的相机运动矢量,还原实际人体运动矢量数据;基于修正后的矢量数据及解码图像提取人体动作局部时空特征。本方法通过重用视频码流中的编码数据进行快速相机运动消除,提升了人体动作局部时空特征描述的精确性,提高了人体动作识别率。
-
公开(公告)号:CN105550678B
公开(公告)日:2019-01-18
申请号:CN201610075788.1
申请日:2016-02-03
Applicant: 武汉大学
Abstract: 本发明公开了基于全局显著边缘区域的人体动作特征提取方法,利用一个区域和整个图像的对比度来计算显著度;减少色彩空间的颜色数量,平滑颜色空间的显著度;根据相邻区域的空间关系计算显著性区域;对二值化阈值分割出的前景区域做形态学梯度变化,生成全局显著边缘区域;遍历视频帧不同尺度下所有网格的强角点;在显著边缘区域采集光流幅值不为零的关键特征点;根据修正后光流场求强角点的位移;用强角点连续多帧坐标位移轨迹,以及邻域梯度矢量形成人体动作局部时空特征。本发明通过全局显著边缘区域提取动作特征,剔除与人体运动无关的背景噪声点,消除相机运动对光流计算的影响,提升人体动作局部时空特征描述的精确性,提高人体行为识别率。
-
公开(公告)号:CN105550678A
公开(公告)日:2016-05-04
申请号:CN201610075788.1
申请日:2016-02-03
Applicant: 武汉大学
Abstract: 本发明公开了基于全局显著边缘区域的人体动作特征提取方法,利用一个区域和整个图像的对比度来计算显著度;减少色彩空间的颜色数量,平滑颜色空间的显著度;根据相邻区域的空间关系计算显著性区域;对二值化阈值分割出的前景区域做形态学梯度变化,生成全局显著边缘区域;遍历视频帧不同尺度下所有网格的强角点;在显著边缘区域采集光流幅值不为零的关键特征点;根据修正后光流场求强角点的位移;用强角点连续多帧坐标位移轨迹,以及邻域梯度矢量形成人体动作局部时空特征。本发明通过全局显著边缘区域提取动作特征,剔除与人体运动无关的背景噪声点,消除相机运动对光流计算的影响,提升人体动作局部时空特征描述的精确性,提高人体行为识别率。
-
公开(公告)号:CN105930792A
公开(公告)日:2016-09-07
申请号:CN201610245003.0
申请日:2016-04-19
Applicant: 武汉大学
IPC: G06K9/00
CPC classification number: G06K9/00718 , G06K9/00744
Abstract: 本发明公开了一种基于视频局部特征字典的人体动作分类方法,首先从具有类别标签的训练视频中提取局部特征,每段视频中的特征向量集合构成一个特征包;将特征包进行分组,利用多示例学习方法学习局部特征分类器,多示例学习中采用交叉验证的方式,并且更新正示例时只将每个包中排名最大的多个示例标记为正示例;将学习到的分类器作为特征编码的字典,利用最大池化法对局部特征响应进行池化得到视频的全局向量表达;最后利用全局特征向量进行学习,得到每个动作类别的分类器,利用该分类器对新的视频中的动作进行分类。本发明有利于提升估计的准确性,避免分类对初始值的记忆;同时保证了估计的正样本的正确率。
-
公开(公告)号:CN103353917B
公开(公告)日:2016-03-30
申请号:CN201310141016.X
申请日:2013-04-22
Applicant: 武汉大学
IPC: G06F19/00
Abstract: 本发明公开了一种安全防范网络内固定防护对象的风险评估方法及系统,属于系统安全防范技术领域。本发明系统包括:数据获取模块,用来获取安全防范系统内安防节点位置、安防节点的防护半径和防护对象位置;数据预处理模块,用来对数据进行归一化;防护对象风险评估模块,用来基于防护对象与安防节点的物理距离、安防节点的防护半径以及安防节点的防护性能衰减,获取防护对象的风险评估值。本发明能帮助安全防范系统管理人员了解防护区域内防护对象的风险值,可以成为公共安全体系建设的一种技术支撑,指导安全防范系统的建设。
-
公开(公告)号:CN103353917A
公开(公告)日:2013-10-16
申请号:CN201310141016.X
申请日:2013-04-22
Applicant: 武汉大学
IPC: G06F19/00
Abstract: 本发明公开了一种安全防范网络内固定防护对象的风险评估方法及系统,属于系统安全防范技术领域。本发明系统包括:数据获取模块,用来获取安全防范系统内安防节点位置、安防节点的防护半径和防护对象位置;数据预处理模块,用来对数据进行归一化;防护对象风险评估模块,用来基于防护对象与安防节点的物理距离、安防节点的防护半径以及安防节点的防护性能衰减,获取防护对象的风险评估值。本发明能帮助安全防范系统管理人员了解防护区域内防护对象的风险值,可以成为公共安全体系建设的一种技术支撑,指导安全防范系统的建设。
-
公开(公告)号:CN108288016B
公开(公告)日:2021-09-03
申请号:CN201710018537.4
申请日:2017-01-10
Applicant: 武汉大学
Abstract: 本发明公开了一种基于梯度边界图和多模卷积融合的动作识别方法及系统,包括步骤:S1基于原始视频构造连续帧集;S2计算连续帧集中相邻两帧图像间的梯度边界值,从而获得梯度边界图集;S3计算连续帧集中相邻两帧图像间的帧间光流,从而获得光流图集;S4以原始视频的代表帧、梯度边界图集和光流图集为输入,采用卷积神经网络获得原始视频的多模CNN特征;S5融合原始视频的多模CNN特征,得到融合特征;S6基于融合特征,采用动作分类算法进行动作识别。本发明增加了梯度边界图这一重要的动作时空信息,并提出了多模数据卷积融合方法,保证了多模时空特征融合的一致性,提升了视频中人体动作特征描述精确性,提高了人体动作识别率。
-
公开(公告)号:CN108288015B
公开(公告)日:2021-10-22
申请号:CN201710018095.3
申请日:2017-01-10
Applicant: 武汉大学
Abstract: 本发明公开了一种基于时间尺度不变性的视频中人体动作识别方法及系统,包括步骤:S1基于原始视频构造子动作视频段;S2分别获取各子动作视频段的代表帧;S3获得各代表帧的光流强度图像集;S4分别获得各代表帧的图像卷积特征和光流卷积特征;S5分别融合各代表帧的图像卷积特征和光流卷积特征,获得融合特征,所有融合特征构成子动作特征集;S6采用LSTM神经网络对子动作特征集中各融合特征分别进行动作识别,获得多阶段的动作识别结果;S7融合多阶段的动作识别结果,得最终的动作识别结果。本发明对视频中持续时长变化差异很大的动作具有很好的适应性,可提升视频中人体动作特征描述的精确性和人体动作识别率。
-
公开(公告)号:CN108288016A
公开(公告)日:2018-07-17
申请号:CN201710018537.4
申请日:2017-01-10
Applicant: 武汉大学
Abstract: 本发明公开了一种基于梯度边界图和多模卷积融合的动作识别方法及系统,包括步骤:S1.基于原始视频构造连续帧集;S2.计算连续帧集中相邻两帧图像间的梯度边界值,从而获得梯度边界图集;S3.计算连续帧集中相邻两帧图像间的帧间光流,从而获得光流图集;S4.以原始视频的代表帧、梯度边界图集和光流图集为输入,采用卷积神经网络获得原始视频的多模CNN特征;S5.融合原始视频的多模CNN特征,得到融合特征;S6.基于融合特征,采用动作分类算法进行动作识别。本发明增加了梯度边界图这一重要的动作时空信息,并提出了多模数据卷积融合方法,保证了多模时空特征融合的一致性,提升了视频中人体动作特征描述精确性,提高了人体动作识别率。
-
公开(公告)号:CN108288015A
公开(公告)日:2018-07-17
申请号:CN201710018095.3
申请日:2017-01-10
Applicant: 武汉大学
Abstract: 本发明公开了一种基于时间尺度不变性的视频中人体动作识别方法及系统,包括步骤:S1基于原始视频构造子动作视频段;S2分别获取各子动作视频段的代表帧;S3获得各代表帧的光流强度图像集;S4分别获得各代表帧的图像卷积特征和光流卷积特征;S5分别融合各代表帧的图像卷积特征和光流卷积特征,获得融合特征,所有融合特征构成子动作特征集;S6采用LSTM神经网络对子动作特征集中各融合特征分别进行动作识别,获得多阶段的动作识别结果;S7融合多阶段的动作识别结果,得最终的动作识别结果。本发明对视频中持续时长变化差异很大的动作具有很好的适应性,可提升视频中人体动作特征描述的精确性和人体动作识别率。
-
-
-
-
-
-
-
-
-