一种筛选视频中单个行人目标的最佳易识别帧的方法

    公开(公告)号:CN105893963B

    公开(公告)日:2019-03-08

    申请号:CN201610197232.X

    申请日:2016-03-31

    Inventor: 李晓飞 梁何

    Abstract: 本发明公开了一种筛选视频中单个行人最佳易识别帧的方法,所述方法首先进行彩色背景建模并使用背景差法来提取视频中的前景目标,然后对前景目标进行模糊度检测、行人检测、人脸检测以及眼睛和嘴巴位置检测。接着计算每一帧视频中前景目标的易识度。最后根据该行人在整个视频中每一帧里的易识别度筛选出该行人在整个视频中的最佳易识别帧。本发明利用视频中目标的易识别度和行人识别效率之间的关系,可以应用于视频监控中的行人目标识别等相关领域,指导不同应用领域对采集到的行人目标视频段进行关键帧的提取,从而提升后续目标识别的效率。

    基于交通路口视频及计算机并行处理的实时行人预警方法

    公开(公告)号:CN106023650B

    公开(公告)日:2018-11-30

    申请号:CN201610515762.4

    申请日:2016-07-01

    Abstract: 本发明公开了基于交通路口视频及计算机并行处理的实时行人预警方法,包括路口运动前景的提取,行人目标的分类提取,对行人目标的实时跟踪以及对行人进入路口的报警。在预警过程中,通过使用Vibe算法提取监控视频中的前景运动目标,使用离线训练的行人线性SVM分类模型对前景运动物体的行人与非行人的分类,最后使用JPDA(Joint Probabilistic Data Association,联合概率数据关联)跟踪算法对行人目标进行跟踪,获取行人的运动数据,从而进行预警。本发明主要针对交通路口视频中检测并跟踪行人目标进行实时处理提出改进方法。本发明中,采用多线程并行处理,动态缓冲队列共享数据,最大程度地保证在前景检测和跟踪算法计算量较大的情况下能够实时处理监控视频。

    一种基于目标语义和深度外观特征融合的场景识别方法

    公开(公告)号:CN108334830A

    公开(公告)日:2018-07-27

    申请号:CN201810071440.4

    申请日:2018-01-25

    Abstract: 一种基于目标语义和深度外观特征融合的场景识别方法,具体步骤为:获取待识别的场景图像;提取场景图像的目标语义信息,生成保持空间布局信息的目标语义特征;提取场景图像的外观上下文信息,生成外观上下文特征;提取场景图像的外观全局信息,生成外观全局特征;根据目标语义特征、外观上下文特征和外观全局特征,获取场景图像的识别结果。本发明采用多类目标检测器算法,精准地获取关键目标、类别及其布局信息;通过SFV模型获取室内场景图像的目标语义特征;卷积层和LSTM层组成端到端可训练的混合DNN网络结构可以有效提取场景图像的上下文相信息。该方法融合了目标语义信息、全局外观信息和外观的上下文特征,提高了识别算方法的识别率和鲁棒性。

    一种基于D*_lite算法的动态平滑路径规划方法

    公开(公告)号:CN107631734A

    公开(公告)日:2018-01-26

    申请号:CN201710600027.8

    申请日:2017-07-21

    Inventor: 李晓飞 丁浩 吴聪

    Abstract: 本发明公开了一种基于D*_lite算法的动态平滑路径规划方法。该方法主要应用于自主移动机器人动态路径规划领域;包括:利用多种传感器建立静态全局障碍物栅格地图和实时动态局部障碍物栅格地图;建立待拓展节点队列U和已搜索节点多叉树UT;构建初步规划路径;采用Bezier曲线分析进行平滑再处理,得到最终规划路;机器人自主移动到新的出发点,实时更新出发点及相应的局部障碍图,直至到达目标点。本发明应用D*_lite算法结合Bezier曲线平滑再处理进行平滑路径规划,实时进行路径重规划,可避免了路线重复和不必要的转折。同时实现了路径的动态规划,对移动过程中出现的动态物体实现了规避,增强了移动机器人在动态环境下的安全性和适应性。

    一种结合深度学习与稀疏表示的室内场景识别方法

    公开(公告)号:CN106650798A

    公开(公告)日:2017-05-10

    申请号:CN201611120285.8

    申请日:2016-12-08

    CPC classification number: G06K9/6256 G06K9/6268 G06N3/08

    Abstract: 本发明公开了一种结合深度学习与稀疏表示的室内场景识别方法,包括步骤:从室内场景库中随机挑选若干张室内场景图像作为训练样本,将剩余作为测试样本;利Fast‑RCNN算法对训练和测试样本进行物体类别判别和检测,以构建得到每张室内场景图像的底层特征;利用词袋模型将每张室内场景图像的底层特征和空间特征结合,构建得到中层特征;对训练样本中的中层特征进行糅合构建得到稀疏字典;利用稀疏字典对测试样本进行稀疏表示,及根据求解出的稀疏解与所输入的测试样本计算得到残差,并根据残差的大小判断测试样本所属的物体类别;将判断得到所属的物体类别输出。本发明能准确识别室内场景,可有效提高室内场景识别的准确率和鲁棒性,具有很高的实用性能。

    基于支持向量机的鲁棒目标跟踪方法

    公开(公告)号:CN104091349B

    公开(公告)日:2017-02-01

    申请号:CN201410270717.8

    申请日:2014-06-17

    Abstract: 基于支持向量机的鲁棒目标跟踪方法,包括样本选择和支持向量更新、基于结构化支持向量机的在线目标跟踪、卡尔曼修正以及目标重定位。本发明针对视频场景中由于目标运动交叉、半遮挡或暂时离开画面时产生误差累积,从而造成的跟踪漂移问题提出改进方法。对于目标运动交叉或半遮挡,提出采用帧间目标匹配度波动值决定更新支持向量,并结合卡尔曼滤波修正跟踪结果;对于目标暂时离开画面,采用停止更新支持向量和更改搜索策略的方法进行目标重定位。本发明提高了跟踪的实时性和鲁棒性,有效解决了由于误差累积造成的跟踪漂移问题。

    一种基于图像盲去模糊的视频图像模糊度检测方法

    公开(公告)号:CN106097256A

    公开(公告)日:2016-11-09

    申请号:CN201610373160.X

    申请日:2016-05-31

    Abstract: 本发明公开了一种基于图像盲去模糊的视频图像模糊度检测方法,具体如下:(1)首先,将一帧模糊视频图像经过盲去模糊1方法,得到清晰图像f1。(2)然后将清晰图像f1进行显著性检测并得到显著图。(3)再将显著图进行连通域分割,然后进行连通域标记,在输入模糊图像中标记出与清晰图像的连通域相对应的区域。(4)利用结构相似性指标计算模糊图像与清晰图像各个相应连通区域的结构相似度值,计算加权平均值得到S1。(5)将输入模糊图像经过盲去模糊2方法,得到清晰图像f2。(6)重复步骤(2)到(4),得到S2。(7)对S1和S2赋予不同的权重,最后得到输入图像的模糊度:Mblur=ω1S1+ω2S2。本发明使模糊度检测更加准确。

    一种交通监控视频中车道线定位方法

    公开(公告)号:CN104217427A

    公开(公告)日:2014-12-17

    申请号:CN201410419473.5

    申请日:2014-08-22

    Abstract: 本发明涉及一种交通监控视频中车道线定位方法,针对现有技术进行改进,引入可调滤波器进行边缘检测,使得车道线的边缘信息非常明显,再采用全局阈值的方法进行图像阈值化处理,使得能够尽可能多地获取车道线像素点,减少了非车道像素点的干扰,最后结合霍夫变换准确实现对车道线位置检测,再提高检测精度的同时,减少了运算量和降低了复杂度,使得应用更加便捷,有效提高了监控摄像头针对压线违章车辆进行检测的工作效率。

    基于支持向量机的鲁棒目标跟踪方法

    公开(公告)号:CN104091349A

    公开(公告)日:2014-10-08

    申请号:CN201410270717.8

    申请日:2014-06-17

    Abstract: 基于支持向量机的鲁棒目标跟踪方法,包括样本选择和支持向量更新、基于结构化支持向量机的在线目标跟踪、卡尔曼修正以及目标重定位。本发明针对视频场景中由于目标运动交叉、半遮挡或暂时离开画面时产生误差累积,从而造成的跟踪漂移问题提出改进方法。对于目标运动交叉或半遮挡,提出采用帧间目标匹配度波动值决定更新支持向量,并结合卡尔曼滤波修正跟踪结果;对于目标暂时离开画面,采用停止更新支持向量和更改搜索策略的方法进行目标重定位。本发明提高了跟踪的实时性和鲁棒性,有效解决了由于误差累积造成的跟踪漂移问题。

Patent Agency Ranking