基于RGB-D视频的机器人目标识别与定位方法及系统

    公开(公告)号:CN106920250B

    公开(公告)日:2019-08-13

    申请号:CN201710078328.9

    申请日:2017-02-14

    Inventor: 陶文兵 李坤乾

    Abstract: 本发明公开了一种基于RGB‑D视频的机器人目标识别与定位方法及系统,通过目标候选提取、识别、基于时序一致性的置信度估计、目标分割优化、位置估计等步骤,在场景中确定目标类别并获取准确的空间位置定位。本发明中利用场景深度信息,增强了识别与定位算法的空间层次感知能力,通过采用基于关键帧的长短时时空一致性约束,在提高视频处理效率的同时,保证了长时序目标识别与定位任务中目标的同一性与关联性。在定位过程中,通过在平面空间中精确分割目标以及在深度信息空间评价同一目标的位置一致性,实现了在多信息模态中的协同目标定位。计算量小,实时性好,识别与定位精度高,可被应用于基于在线视觉信息解析理解技术的机器人任务。

    一种适用于语义分割的深度学习网络构建方法及系统

    公开(公告)号:CN107180430A

    公开(公告)日:2017-09-19

    申请号:CN201710342354.8

    申请日:2017-05-16

    CPC classification number: G06T7/10 G06N3/08 G06T2207/20084

    Abstract: 本发明公开了一种适用于语义分割的深度学习网络构建方法及系统,该方法在反卷积网络语义分割的基础上,考虑到条件随机场对边缘优化较好的特点,将条件随机场解释为递归网络融入到反卷积网络中,进行端对端的训练,使得卷积网络和递归网络中的参数学习相互作用,最终训练出更好的集成网络。本发明提出的反卷积网络和条件随机场联合训练的方式,得到更强的细节和形状信息,解决了图像边缘分割不太准确的问题;结合多尺度输入和多尺度池化的策略,解决了语义分割中由于感受野单一而产生的大目标被过分割或小目标被漏分割的情况。本发明对经典的反卷积网络进行扩展,利用条件随机场联合训练和多特征信息融合策略,提高语义分割的准确性。

    基于RGB‑D视频的机器人目标识别与定位方法及系统

    公开(公告)号:CN106920250A

    公开(公告)日:2017-07-04

    申请号:CN201710078328.9

    申请日:2017-02-14

    Inventor: 陶文兵 李坤乾

    CPC classification number: G06T2207/10016

    Abstract: 本发明公开了一种基于RGB‑D视频的机器人目标识别与定位方法及系统,通过目标候选提取、识别、基于时序一致性的置信度估计、目标分割优化、位置估计等步骤,在场景中确定目标类别并获取准确的空间位置定位。本发明中利用场景深度信息,增强了识别与定位算法的空间层次感知能力,通过采用基于关键帧的长短时时空一致性约束,在提高视频处理效率的同时,保证了长时序目标识别与定位任务中目标的同一性与关联性。在定位过程中,通过在平面空间中精确分割目标以及在深度信息空间评价同一目标的位置一致性,实现了在多信息模态中的协同目标定位。计算量小,实时性好,识别与定位精度高,可被应用于基于在线视觉信息解析理解技术的机器人任务。

Patent Agency Ranking