基于在线机器学习的视觉人手跟踪方法及系统

    公开(公告)号:CN103426008B

    公开(公告)日:2017-04-05

    申请号:CN201310385425.4

    申请日:2013-08-29

    Inventor: 刘宏 刘星 王灿

    Abstract: 本发明涉及一种基于在线机器学习的视觉人手跟踪方法及系统,系统包括:跟踪器、检测器和在线机器学习。跟踪方法为:本发明通过在线学习将基于分类器的检测和基于运动连续性的跟踪结合起来,以实现对现实应用场景鲁棒的人手跟踪。通过利用层级分类器(检测器)对搜索区域内的像素点进行分类,得到对目标的保守但稳定的估计;利用结合鸟群算法的光流法跟踪器对目标进行适应性较强但不太稳定的估计;利用在线学习机制将二者结合得到的跟踪结果,并且根据时间空间约束产生新的样本来在线更新层级的分类器,从而实现跟踪器和检测器的互补,来获得更加鲁棒的跟踪结果。本发明增强了对光照变化和快速运动的鲁棒性。

    基于最大稳定曲率区域的视觉人手检测跟踪方法及系统

    公开(公告)号:CN103456012B

    公开(公告)日:2016-06-01

    申请号:CN201310395199.8

    申请日:2013-09-03

    Inventor: 刘宏 王灿 刘星

    Abstract: 本发明涉及一种基于最大稳定曲率区域的视觉人手检测跟踪方法及系统,在由人手检测单元和空间条件约束单元以及输入/输出端组成的系统中,其跟踪方法如下:1)采用摄像头提取得到RGB图和/或深度图,通过待跟踪物体的初始位置,得到前景物体和背景物体;2)根据肤色点的连通区域对RGB图进行肤色检测得到人手和/或人脸的候选肤色区域;3)根据深度图中的正向投影对深度图进行最大稳定曲率计算,得到最大稳定曲率区域;4)对所说候选肤色区域和最大稳定曲率区域按照空间约束条件进行结合,确定出人手和头部位置,得到人手的检测跟踪结果。本发明实现了鲁棒的基于视觉的人手跟踪,增强了对光照变化和快速运动的鲁棒性。

    一种基于机器视觉的举牌智能识别方法

    公开(公告)号:CN103886319A

    公开(公告)日:2014-06-25

    申请号:CN201410111626.X

    申请日:2014-03-24

    Inventor: 刘宏 刘梦源 王灿

    Abstract: 本发明公开了一种基于机器视觉的举牌智能识别方法。本方法为:1)将每一类别的选票保存为一模板图像;2)对采集的包含选票文本的场景图像进行去噪处理;所述场景图像之间不重叠;3)从去噪处理后的场景图像中提取包含多个选票信息的文本候选区域的二值图像;4)对所述文本候选区域的二值图像进行分割,得到只包含单个选票的矩形候选区域图像块;5)将所述候选区域图像块与每一所述模板图像进行匹配,得到每一候选区域图像块对应的选票类别。本发明能在复杂场景和可变光照条件下,对大规模群众举牌方式投票达到90%以上的票数检测率和100%对于不同票的识别率,处理时间快。

    一种基于深度信息的运动检测方法

    公开(公告)号:CN103996199A

    公开(公告)日:2014-08-20

    申请号:CN201410253317.6

    申请日:2014-06-09

    Inventor: 刘宏 王灿 马里千

    Abstract: 本发明公开了一种基于深度信息的运动检测方法。本方法为:1)对当前帧的深度图像进行一次运动目标分割,获取粗糙运动目标点集;2)采用深度无关密度恒定的投影方法将该粗糙运动目标点集投影至俯视平面xoz,得到一个二维的xoz平面统计直方图;3)对该xoz平面统计直方图进行二次运动目标分割,获取最终的精确运动目标点集;4)周期性地利用当前帧的精确运动目标点集更新当前帧的粗糙运动目标点集;5)根据所采集深度图像序列的精确运动目标点集进行运动检测。本发明可以克服深度摄像头区域探测不稳定、图像孔洞等缺陷,可进行更准确、稳定的实时运动检测。

    一种基于机器视觉的工业品检测方法

    公开(公告)号:CN103903009A

    公开(公告)日:2014-07-02

    申请号:CN201410119481.8

    申请日:2014-03-27

    Abstract: 本发明公开了一种基于机器视觉的工业品检测方法,本发明为:1)对每种类型的工业产品进行采样与统计,得出该类型工业产品自身色差分布的统计模型和纹理方差分布的统计模型;2)从色差分布的统计模型中提取工业产品的色差特征,从纹理方差分布的统计模型中提取工业产品的纹理特征,根据提取的色差特征和纹理特征建立特征空间;3)利用支持向量机SVM对该特征空间进行划分,得到最优超平面作为对待检测物品进行检测的决策分类器,即分类阈值;4)利用粒子滤波框架对待测物品的色差与纹理进行采样,得到待检样本的统计向量;然后将该统计向量输入所述决策分类器,得到待测物品的类别。本发明大大改善了现行工业化生产中检测工序。

    基于最大稳定曲率区域的视觉人手检测跟踪方法及系统

    公开(公告)号:CN103456012A

    公开(公告)日:2013-12-18

    申请号:CN201310395199.8

    申请日:2013-09-03

    Inventor: 刘宏 王灿 刘星

    Abstract: 本发明涉及一种基于最大稳定曲率区域的视觉人手检测跟踪方法及系统,在由人手检测单元和空间条件约束单元以及输入/输出端组成的系统中,其跟踪方法如下:1)采用摄像头提取得到RGB图和/或深度图,通过待跟踪物体的初始位置,得到前景物体和背景物体;2)根据肤色点的连通区域对RGB图进行肤色检测得到人手和/或人脸的候选肤色区域;3)根据深度图中的正向投影对深度图进行最大稳定曲率计算,得到最大稳定曲率区域;4)对所说候选肤色区域和最大稳定曲率区域按照空间约束条件进行结合,确定出人手和头部位置,得到人手的检测跟踪结果。本发明实现了鲁棒的基于视觉的人手跟踪,增强了对光照变化和快速运动的鲁棒性。

    基于在线机器学习的视觉人手跟踪方法及系统

    公开(公告)号:CN103426008A

    公开(公告)日:2013-12-04

    申请号:CN201310385425.4

    申请日:2013-08-29

    Inventor: 刘宏 刘星 王灿

    Abstract: 本发明涉及一种基于在线机器学习的视觉人手跟踪方法及系统,系统包括:跟踪器、检测器和在线机器学习。跟踪方法为:本发明通过在线学习将基于分类器的检测和基于运动连续性的跟踪结合起来,以实现对现实应用场景鲁棒的人手跟踪。通过利用层级分类器(检测器)对搜索区域内的像素点进行分类,得到对目标的保守但稳定的估计;利用结合鸟群算法的光流法跟踪器对目标进行适应性较强但不太稳定的估计;利用在线学习机制将二者结合得到的跟踪结果,并且根据时间空间约束产生新的样本来在线更新层级的分类器,从而实现跟踪器和检测器的互补,来获得更加鲁棒的跟踪结果。本发明增强了对光照变化和快速运动的鲁棒性。

Patent Agency Ranking