一种优化视频关键人物运动轨迹的特征提取方法

    公开(公告)号:CN111583304A

    公开(公告)日:2020-08-25

    申请号:CN202010385348.2

    申请日:2020-05-09

    Abstract: 本发明公开一种优化视频关键人物运动轨迹的特征提取方法。该方法首先对输入的视频进行切分得到多个视频片段,在每个视频片段构成由不同帧上的特征点组成的多条轨迹;接着对视频片段中的每帧图像进行关键人物运动框构建,并判断各条轨迹中的特征点在人物检测框中的个数是否大于阈值,删除与关键人物运动无关的轨迹;最后计算经过初优化后的轨迹之间的余弦度并删除小于阈值的轨迹,完成对视频中关键人物的轨迹优化。本发明方法解决了冗余轨迹较多的问题,又避免了在复杂背景的变化对关键人物运动轨迹的影响,能够有效地提取出运动人物的运动特征,具有较好的实用性和鲁棒性。

    一种基于视觉显著性检测的图像非线性缩放方法

    公开(公告)号:CN109978768A

    公开(公告)日:2019-07-05

    申请号:CN201910245860.4

    申请日:2019-03-28

    Abstract: 本发明公开了一种基于视觉显著性检测的图像非线性缩放方法,该方法首先读入一张大小为n*m的图像,输入待缩放图像大小p*q;接着通过FCN全卷积神经网络生成显著图g(I),并计算出图像的能量函数e(I),得到总能量函数E(I);然后利用动态规划的方法计算出累计最小能量图,找出一条最佳裁剪线;最后从图像中不断删去得到的最佳裁剪线,直至图像大小与待缩放图像大小相等,得到缩放完成的新图像。本发明可以有效地保持图像重要内容,具有良好的缩放效果。

    一种基于神经网络的人体行为识别方法及系统

    公开(公告)号:CN108764059A

    公开(公告)日:2018-11-06

    申请号:CN201810422265.9

    申请日:2018-05-04

    Abstract: 本发明公开一种基于神经网络的人体行为识别方法,解决穿戴式传感器数据的人体行为识别准确度不够高的问题。本发明首先通过穿戴式图像传感器采集的图像信息采用了灰度化处理,再对图像数据进行直方图均衡化处理,使用LSTM‑RNN神经网络算法对处理后的传感器的图像信息进行场景识别。对于穿戴式运动传感器的运动数据输入,使用LSTM‑RNN神经网络算法运动传感器的加速度信息进行动作识别。并将使用场景标记的运动序列在行为数据库中进行匹配,得到具体的行为信息。使用警报模块通知用户紧急信息。本发明通过这些方法的应用与系统中配套模块的支持对人体穿戴传感器数据完成行为识别,能够提高人体行为识别的准确性与稳定性,具有良好的实施性与实效性。

    基于图像人物面部表情识别的特征提取优化方法

    公开(公告)号:CN108446640A

    公开(公告)日:2018-08-24

    申请号:CN201810237230.8

    申请日:2018-03-21

    Abstract: 本发明公开了一种基于图像人物面部表情识别的特征提取优化方法。该发明首先输入面部图像并用矩阵的形式表示,设置投影轴后,得到投影特征向量。设定给定图像的投影特征协方差矩阵,并以其迹表示最佳投影方向函数。根据训练样本图像的总体散布矩阵更新最佳投影方向函数,满足此函数最大值的投影轴组成的向量集合更新投影特征向量,并组成表示表情特征的矩阵。接着将特征矩阵中的每个元素再赋予权值,通过经高斯变异修改过的粒子群算法,优化最佳投影方向即全局最优解。最后把粒子群算法中的全局最优解分成二级群体,分为领导者和跟随者表示图像人物面部表情的多个主要部位进行二次优化和识别。该发明能够有效的辨别和优化人物面部的表情特征果。

    一种利用多目摄像头检测运动目标的装置及方法

    公开(公告)号:CN109934854B

    公开(公告)日:2022-09-02

    申请号:CN201910245857.2

    申请日:2019-03-28

    Abstract: 本发明公开了一种利用多目摄像头检测运动目标的装置及方法,包括4个摄像头,分别为中心摄像头C0,摄像头C1~C3以及控制系统,通过摄像头C1~C3以检测目标是否存在;检测到目标后,输出脉冲至摄像头C0,C0将对目标成像;摄像头通过球坐标系成像,将空间信息映射至球坐标系,并计算穿过平面上一点的切平面的方程;之后在空间球坐标系里形成目标物体到小眼的圆锥投影,然后计算得到椭圆投影面积S,得出目标椭圆成像结果;本发明降低了检测难度和复杂度。

    基于子群组划分与动量特征融合的人群运动行为识别方法

    公开(公告)号:CN109064484B

    公开(公告)日:2022-02-08

    申请号:CN201810236397.2

    申请日:2018-03-21

    Abstract: 本发明公开了一种基于子群组划分与动量特征融合的人群运动行为识别方法,该方法首先利用角点跟踪和背景建模的方法,获取视频图像帧中运动目标的时空信息,利用前景中群体分布的空间区域信息,将空间上相邻近的人群划分为若干子群体,子群体通过一段时间内的运动相关性进行进一步的分割,得到具有运动一致性的子群体;其次在子群体分割的基础上,提取出人群运动三个动量特征进行融合;最后将融合的特征以及视频帧的像素特征作为微分循环卷积神经网络的输入进行训练,采用人工标记的方法将训练视频片段标记成不同的描述词汇,用带标记的数据调整微分循环卷积神经网络的结果,得到了良好的训练成果,能够有效识别人群的运动行为,达到较好的效果。

    一种基于神经网络的人体行为识别方法及系统

    公开(公告)号:CN108764059B

    公开(公告)日:2021-01-01

    申请号:CN201810422265.9

    申请日:2018-05-04

    Abstract: 本发明公开一种基于神经网络的人体行为识别方法,解决穿戴式传感器数据的人体行为识别准确度不够高的问题。本发明首先通过穿戴式图像传感器采集的图像信息采用了灰度化处理,再对图像数据进行直方图均衡化处理,使用LSTM‑RNN神经网络算法对处理后的传感器的图像信息进行场景识别。对于穿戴式运动传感器的运动数据输入,使用LSTM‑RNN神经网络算法运动传感器的加速度信息进行动作识别。并将使用场景标记的运动序列在行为数据库中进行匹配,得到具体的行为信息。使用警报模块通知用户紧急信息。本发明通过这些方法的应用与系统中配套模块的支持对人体穿戴传感器数据完成行为识别,能够提高人体行为识别的准确性与稳定性,具有良好的实施性与实效性。

    一种基于卷积自编码模型的唇部特征提取方法

    公开(公告)号:CN110163156A

    公开(公告)日:2019-08-23

    申请号:CN201910437384.6

    申请日:2019-05-24

    Abstract: 本发明公开一种基于卷积自编码模型的唇部特征提取方法,该发明首先通过对用户输入的视频逐帧提取唇部区域;然后对每帧唇部区域图像进行处理;处理完成后利用卷积自编码模型来提取唇部区域图像特征,最后将特征输入到LSTM进行训练,LSTM根据输入的特征对单词进行分类,从而完成对唇部的读取。本发明通过对唇部图像的压缩与重构,有助于帮助我们从唇部图像中提取视觉特征,从而得到更准确的潜在表示空间,能够有效提升唇读的准确性与可靠性。

    一种基于动静特征的视频分类方法

    公开(公告)号:CN108399435A

    公开(公告)日:2018-08-14

    申请号:CN201810237226.1

    申请日:2018-03-21

    Abstract: 本发明公开一种基于动静特征的视频分类方法,解决视频分类准确度不够高的问题。本发明首先对视频中的动态特征和静态特征进行处理,利用Cholesky变换对这些信息融合后,使用GRU神经网络完成视频的分类;接着通过DT算法捕获每个视频帧的动态特征,再通过DBSCAN聚类算法将每个视频帧隔离,在每个视频片段的每个帧里构建运动框并连接每个视频片段相邻帧之间的运动框,完成动态特征的捕获和跟踪;然后通过HoG和BoW方法将动态特征生成动态信息直方图与通过CNN神经网络生成的静态信息直方图利用Cholesky变换相融合;最后利用GRU神经网络实现视频的分类。本发明通过对动态和静态信息的分开处理,能够提升视频分类的准确性,具有良好的实施性和鲁棒性。

Patent Agency Ranking