-
公开(公告)号:CN107180229A
公开(公告)日:2017-09-19
申请号:CN201710308053.3
申请日:2017-05-04
Applicant: 南京邮电大学 , 南京运享通信息科技有限公司
CPC classification number: G06K9/00369 , G06T7/269 , G06T2207/10016 , G06T2207/30196 , G06T2207/30232
Abstract: 本发明公开了一种监控视频中基于运动方向的异常行为检测方法,通过对运动方向的分析解决了难以准确检测视频异常行为的问题。本发明主要包括三部分:获取初步视频目标、优化视频目标和检测视频目标异常行为。第一部分处理原始视频帧和背景视频帧,利用改进的背景相减法,获取初步视频目标;第二部分,筛选运动速度在噪声边界阈值内的初步视频目标像素点,获取视频目标的精确位置;第三部分计算视频目标像素点的运动方向,统计运动方向熵以此判断行为是否异常。本发明方法模拟人工标记,能够及时检测出大部分异常情况,具有良好的实时性和有效性。
-
公开(公告)号:CN108399435B
公开(公告)日:2020-09-25
申请号:CN201810237226.1
申请日:2018-03-21
Applicant: 南京邮电大学
Abstract: 本发明公开一种基于动静特征的视频分类方法,解决视频分类准确度不够高的问题。本发明首先对视频中的动态特征和静态特征进行处理,利用Cholesky变换对这些信息融合后,使用GRU神经网络完成视频的分类;接着通过DT算法捕获每个视频帧的动态特征,再通过DBSCAN聚类算法将每个视频帧隔离,在每个视频片段的每个帧里构建运动框并连接每个视频片段相邻帧之间的运动框,完成动态特征的捕获和跟踪;然后通过HoG和BoW方法将动态特征生成动态信息直方图与通过CNN神经网络生成的静态信息直方图利用Cholesky变换相融合;最后利用GRU神经网络实现视频的分类。本发明通过对动态和静态信息的分开处理,能够提升视频分类的准确性,具有良好的实施性和鲁棒性。
-
公开(公告)号:CN107148064B
公开(公告)日:2020-06-23
申请号:CN201710339416.X
申请日:2017-05-15
Applicant: 南京邮电大学 , 南京运享通信息科技有限公司
Abstract: 本发明公开了一种基于粒子群的车载网络路由路径优化方法,根据加权车载网络无向图和网络节点位置表,解决由起始节点到终止接点的最优路径问题,本发明使用粒子群对选取的由起始节点到终止接点的路径样本进行研究,根据加权无向图的权值计算路径适应值得出群体最优路径和个体最优路径,经过多次迭代调整最终得到最优路径,本发明在多个QoS量化指标的限制下,能够有效获得车载网络最优路径,高效处理多峰值实际问题。
-
公开(公告)号:CN109903339A
公开(公告)日:2019-06-18
申请号:CN201910235608.5
申请日:2019-03-26
Applicant: 南京邮电大学
Abstract: 本发明公开一种多维融合特征的视频群体人物定位检测方法。该发明首先抽取多层级视频特征图,建立自顶向下和自底向上的双向特征处理通道充分挖掘视频的语义信息,接着融合多层级视频特征图获取多维融合特征,抓取视频候选目标,最后并行处理候选目标位置回归和类别分类,完成视频群体人物定位检测。本发明通过融合多层级特征获得丰富的视频语义信息,同时进行多任务预测操作,有效提升群体人物定位检测的速度,具有良好的准确率和实施性。
-
公开(公告)号:CN108764209A
公开(公告)日:2018-11-06
申请号:CN201810595992.5
申请日:2018-06-11
Applicant: 南京邮电大学
CPC classification number: G06K9/00362 , G06T7/246 , G06T7/254 , G06T7/62 , G06T7/66 , G06T2207/10016 , G06T2207/10024 , G06T2207/20224 , G06T2207/30232
Abstract: 本发明公开一种基于监控视频的人物异常行为自动检测方法,该方法首先对异常行为特征进行提取,选用的特征为目标运动轨迹特征和外接矩形框宽高比特征,通过位置动态对监控场景下视频中全局移动对象运动轨迹特征进行提取,通过最小外接矩形框对移动对象进行标记。依据特征提取结果,通过异常测量函数实现监控场景下视频中全局移动对象的异常行为自动识别。
-
公开(公告)号:CN108509880A
公开(公告)日:2018-09-07
申请号:CN201810236363.3
申请日:2018-03-21
Applicant: 南京邮电大学
Abstract: 本发明公开了一种视频人物行为语义识别方法,该方法以识别视频中的人物行为语义与社交关系为目标,首先利用卷积神经网络并行地抽取每个视频场景中的人物身份、人物行为和上下文三个方面的中层语义特征,接着通过两层循环神经网络来融合这三个方面的语义信息,最后完成视频中人物行为语义的识别,该方法有效的弥补的了视频场景的底层特征与高层语义之间的鸿沟,提取了全方位的视频特征包括人物脸部特征、人物行为特征以及上下文特征,提高了语义识别的准确率。本发明通过建立底层特征和高层语义之间的中层特征解决了低层特征对真实场景下的复杂行为建模困难的问题,能够达到解决底层特征与高层语义之间的鸿沟的目的。
-
-
-
-
-