一种基于动静特征的视频分类方法

    公开(公告)号:CN108399435B

    公开(公告)日:2020-09-25

    申请号:CN201810237226.1

    申请日:2018-03-21

    Abstract: 本发明公开一种基于动静特征的视频分类方法,解决视频分类准确度不够高的问题。本发明首先对视频中的动态特征和静态特征进行处理,利用Cholesky变换对这些信息融合后,使用GRU神经网络完成视频的分类;接着通过DT算法捕获每个视频帧的动态特征,再通过DBSCAN聚类算法将每个视频帧隔离,在每个视频片段的每个帧里构建运动框并连接每个视频片段相邻帧之间的运动框,完成动态特征的捕获和跟踪;然后通过HoG和BoW方法将动态特征生成动态信息直方图与通过CNN神经网络生成的静态信息直方图利用Cholesky变换相融合;最后利用GRU神经网络实现视频的分类。本发明通过对动态和静态信息的分开处理,能够提升视频分类的准确性,具有良好的实施性和鲁棒性。

    一种基于多维融合特征的视频群体人物定位检测方法

    公开(公告)号:CN109903339A

    公开(公告)日:2019-06-18

    申请号:CN201910235608.5

    申请日:2019-03-26

    Abstract: 本发明公开一种多维融合特征的视频群体人物定位检测方法。该发明首先抽取多层级视频特征图,建立自顶向下和自底向上的双向特征处理通道充分挖掘视频的语义信息,接着融合多层级视频特征图获取多维融合特征,抓取视频候选目标,最后并行处理候选目标位置回归和类别分类,完成视频群体人物定位检测。本发明通过融合多层级特征获得丰富的视频语义信息,同时进行多任务预测操作,有效提升群体人物定位检测的速度,具有良好的准确率和实施性。

    一种视频人物行为语义识别方法

    公开(公告)号:CN108509880A

    公开(公告)日:2018-09-07

    申请号:CN201810236363.3

    申请日:2018-03-21

    Abstract: 本发明公开了一种视频人物行为语义识别方法,该方法以识别视频中的人物行为语义与社交关系为目标,首先利用卷积神经网络并行地抽取每个视频场景中的人物身份、人物行为和上下文三个方面的中层语义特征,接着通过两层循环神经网络来融合这三个方面的语义信息,最后完成视频中人物行为语义的识别,该方法有效的弥补的了视频场景的底层特征与高层语义之间的鸿沟,提取了全方位的视频特征包括人物脸部特征、人物行为特征以及上下文特征,提高了语义识别的准确率。本发明通过建立底层特征和高层语义之间的中层特征解决了低层特征对真实场景下的复杂行为建模困难的问题,能够达到解决底层特征与高层语义之间的鸿沟的目的。

Patent Agency Ranking