-
公开(公告)号:CN113221693B
公开(公告)日:2023-07-28
申请号:CN202110472752.8
申请日:2021-04-29
Applicant: 苏州大学
IPC: G06V40/20 , G06V20/40 , G06V10/762 , G06V10/774 , G06V10/82 , G06N3/048 , G06N3/08
Abstract: 本发明提出一种动作识别方法,包括计算动作视频样本的动态图像;将动作视频样本的动态图像输入特征提取器,获取动态图像中的特征向量;构建特征中心组;将所有特征向量输入特征中心,累加每个特征中心上的所有输出,得到直方图表达;将直方图表达输入多层感知器,构成特征量化网络;训练特征量化网络至收敛,找出每个动作类别的共现特征中心组;构造图像特征共现层;构造基于共现图像特征的动作识别网络并训练至收敛,找出每个动作类别的共现图像特征神经元组;构造语义特征共现层;构造基于层级共现特征的动作识别网络并训练至收敛,计算测试动作视频样本的动态图像,输入训练好的基于层级共现特征的动作识别网络,实现动作识别。
-
公开(公告)号:CN114511928A
公开(公告)日:2022-05-17
申请号:CN202210099728.9
申请日:2022-01-27
Applicant: 苏州大学
Abstract: 本发明提供了一种基于持续监控的动作预测方法,包括:将预设的人体动作序列样本划分为历史序列、待预测序列和未来序列,并将历史序列和未来序列输入预设的运动特征提取模块,提取历史运动特征和未来运动特征;将历史运动特征和未来运动特征相加后,输入预设的动作预测模块进行训练,构造双流动作预测网络;将历史序列和未来序列输入双流动作预测网络,训练双流动作预测网络和训练分类模块至收敛;将双流动作预测网络和分类模块加入字典模块,构建双流信息储存网络;将运动特征提取模块、分类模块、动作预测模块和字典模块相结合,构造自更新动作预测模型;将人体动作序列样本划分的历史序列输入自更新动作预测模型,确定动作预测结果。
-
公开(公告)号:CN114495278A
公开(公告)日:2022-05-13
申请号:CN202210099695.8
申请日:2022-01-27
Applicant: 苏州大学
Abstract: 本发明提供了一种面向未知类别的动作预测方法,包括:将人体动作序列样本划分为历史序列、待预测序列和未来序列,将历史序列和未来序列输入运动特征提取模块,提取历史和未来运动特征;将历史运动特征和未来运动特征输入动作预测模块进行训练,构造双流动作预测网络;将历史和未来序列输入双流动作预测网络;通过运动特征提取模块,提取历史运动特征输入分类模块进行动作分类;将双流动作预测网络和分类模块结合并加入预设的字典模块,构建双流信息储存网络;将运动特征提取模块、分类模块、动作预测模块和储存完信息的字典模块结合,构造融合特征的动作预测模型;将人体动作序列样本划分历史序列输入至融合特征的动作预测模型,实现动作预测。
-
公开(公告)号:CN114495277A
公开(公告)日:2022-05-13
申请号:CN202210099358.9
申请日:2022-01-27
Applicant: 苏州大学
IPC: G06V40/20 , G06V10/772 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提供一种人体动作预测方法,包括将人体动作序列样本划分为历史序列、待预测序列和未来序列,将历史序列和未来序列输入运动特征提取模块,提取并输入历史运动特征和未来运动特征预设的动作预测模块进行训练,构造双流动作预测网络;将双流动作预测网络和分类模块加入预设的字典模块,构建双流信息储存网络;通过运动特征提取模块、分类模块、动作预测模块和储存后的字典模块,构建动作预测测试网络;将历史运动特征输入动作预测测试网络的分类模块,得到动作类别,在动作类别对应的存储字典中,查找未来运动特征;将历史运动特征和未来运动特征相加,输入动作预测测试网络的动作预测模块,实现动作预测。
-
公开(公告)号:CN108830313B
公开(公告)日:2021-11-09
申请号:CN201810556701.1
申请日:2018-05-31
Applicant: 苏州大学
Abstract: 本发明公开了一种共生模式图像挖掘方法,包括如下步骤:(1)利用SIFT算法提取图像中的视觉基元;(2)利用语境感知聚类将视觉基元聚类成语境相似组;(3)利用空间聚类将语境相似组分成对象组;(4)合并匹配模式,圈定对象组;(5)对每个对象组进行共生频率检测,在共生频率检测规则下筛出有意义的共生模式。本发明能快速,准确的发现图片中的共生视觉模式,以便于后续的视觉任务。
-
公开(公告)号:CN113591797A
公开(公告)日:2021-11-02
申请号:CN202110967362.8
申请日:2021-08-23
Applicant: 苏州大学
Abstract: 本发明涉及一种深度视频行为识别方法,包括以下步骤:将每个行为样本的深度视频进行正面、右侧面、左侧面和顶面投影,获得相应的投影序列;通过计算每个投影序列的动态图像,获得每个行为样本的动态图像;将每个行为样本的动态图像输入特征提取模块并提取特征;将每个行为样本的动态图像所提取到的特征进行连接,并将连接后的特征输入全连接层;构造四流人体行为识别网络;计算每个训练行为样本的深度视频的正面、右侧面、左侧面、顶面投影序列的动态图像,并输入四流人体行为识别网络,训练四流人体行为识别网络至收敛;计算待测试行为样本的每个动态图像,并将计算后的每个动态图像输入训练好的四流人体行为识别网络,实现行为识别。
-
公开(公告)号:CN110119707A
公开(公告)日:2019-08-13
申请号:CN201910387635.4
申请日:2019-05-10
Applicant: 苏州大学
Abstract: 本发明提出一种人体动作识别方法,提取动作样本每个骨骼关节点在相邻帧之间的运动作为该动作样本的动态特征;对动态特征进行空间多尺度划分,得到各个子特征集;对于每个子特征集,将同一帧所有骨骼关节点的运动特征组成向量;提取所有训练样本的该子特征集的帧特征向量,进行聚类,得到聚类中心;将动作样本所有帧的特征向量输入至各个子特征集构建的概率分布神经元,累加每个概率分布神经元上的所有输出,得到直方图表达;对该子特征集进行时间多尺度划分,得到时间多尺度直方图;组成时空多尺度软量化直方图;构成时空多尺度软量化网络;训练时空多尺度软量化网络,将测试样本输入至训练好的网络模型中,实现动作识别。
-
公开(公告)号:CN113591797B
公开(公告)日:2023-07-28
申请号:CN202110967362.8
申请日:2021-08-23
Applicant: 苏州大学
IPC: G06V40/20 , G06V20/40 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明涉及一种深度视频行为识别方法,包括以下步骤:将每个行为样本的深度视频进行正面、右侧面、左侧面和顶面投影,获得相应的投影序列;通过计算每个投影序列的动态图像,获得每个行为样本的动态图像;将每个行为样本的动态图像输入特征提取模块并提取特征;将每个行为样本的动态图像所提取到的特征进行连接,并将连接后的特征输入全连接层;构造四流人体行为识别网络;计算每个训练行为样本的深度视频的正面、右侧面、左侧面、顶面投影序列的动态图像,并输入四流人体行为识别网络,训练四流人体行为识别网络至收敛;计算待测试行为样本的每个动态图像,并将计算后的每个动态图像输入训练好的四流人体行为识别网络,实现行为识别。
-
公开(公告)号:CN108681700B
公开(公告)日:2021-09-28
申请号:CN201810421670.9
申请日:2018-05-04
Applicant: 苏州大学
IPC: G06K9/00
Abstract: 本发明公开了一种复杂行为识别方法,包括:利用传感器获取目标运动的三维骨骼关节点信息;对关节点信息预处理,归一化坐标系;提取每个关节点的运动轨迹,投影至三个二维平面;提取每两帧间的运动向量及其长度和方向角,用k‑means算法聚类得到运动基元,统计得到直方图;利用时间金字塔结合时间信息,结合所有直方图的各个簇的值,计算各关节点的权重,形成描述符;用SVM分类,实现动作识别。本发明可以对动作骨骼关节点信息进行特征的提取和有效表示,提高动作识别的准确率;所有的运动信息被完整保留,可以进行动作重建;对所有动作类进行聚类,从全局上捕捉人类动作特征;使用低级别特征,降低了计算难度,提高动作识别效率,满足系统的实时性要求。
-
公开(公告)号:CN113610046B
公开(公告)日:2023-09-26
申请号:CN202110968288.1
申请日:2021-08-23
Applicant: 苏州大学
IPC: G06V40/20 , G06V20/40 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明涉及一种基于深度视频联动特征的行为识别方法,包括以下步骤:将每个行为样本的深度视频进行正面、右侧面、左侧面和顶面投影,获得相应的投影序列;通过计算每个投影序列的动态图像,获得每个行为样本的动态图像;将每个行为样本的动态图像输入各自的特征提取模块并提取特征;将提取的特征输入多投影联动特征提取模块并提取各投影组合的联动特征;按通道连接提取到的所有联动特征,并将连接后的特征输入平均池化层和全连接层;构造基于深度视频联动特征的行为识别网络;将每个训练行为样本的深度视频输入基于深度视频联动特征的行为识别网络,训练网络至收敛;将每个待测试行为样本的深度视频输入训练好的行为识别网络,实现行为识别。
-
-
-
-
-
-
-
-
-