-
公开(公告)号:CN106840148B
公开(公告)日:2020-07-17
申请号:CN201710053731.6
申请日:2017-01-24
Applicant: 东南大学
Abstract: 本发明公开了室外作业环境下基于双目摄像机的可穿戴式定位与路径引导方法,包括以下步骤:1)操作者进行环境探索,沿作业路径遍历整个作业现场环境,利用双目视觉里程计和GPS及IMU数据定位,同时创建作业环境概要地图;2)实时定位与路径引导的过程中,同时利用双目视觉里程计进行全局米制定位和利用闭环检测进行拓扑定位;3)判断出回路闭合时,利用场景特征计算出位姿偏差,对当前全局位姿进行纠偏,完成样本库更新;4)利用拓扑概要地图和实时定位结果,进行作业任务路径规划与作业路径引导提示,将信息推送给使用者。本发明针对室外环境下的设备巡检运维等一类任务的可穿戴式作业辅助系统,提供可靠、实时的作业路径引导及定位功能。
-
公开(公告)号:CN108510062A
公开(公告)日:2018-09-07
申请号:CN201810268775.5
申请日:2018-03-29
Applicant: 东南大学
Abstract: 本发明涉及一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,首先构建位置-姿态由粗到细的级联式两阶段卷积神经网络模型,第一阶段采用基于区域的全卷积网络(R-FCN)实现抓取定位以及抓取角度的粗估计,第二阶段通过构造一种新的Angle-Net模型实现抓取角度精确计算;其次采集当前含待抓物体的场景图像作为待训练的原始现场图像样本,借助迁移学习机制对两阶段卷积神经网络模型进行训练,然后在线运行中将采集的每一帧单目彩色图像输入到级联式两阶段卷积神经网络模型,最后以所得抓取位置和姿态驱动机器人末端执行器进行物体抓取控制。本方法的抓取检测精度高,有效加快了机器人非规则物体抓取位姿的检测速度,提高了抓取姿态检测算法运行的实时性。
-
公开(公告)号:CN106840148A
公开(公告)日:2017-06-13
申请号:CN201710053731.6
申请日:2017-01-24
Applicant: 东南大学
CPC classification number: G01C21/165 , G01S19/45 , G01S19/47
Abstract: 本发明公开了室外作业环境下基于双目摄像机的可穿戴式定位与路径引导方法,包括以下步骤:1)操作者进行环境探索,沿作业路径遍历整个作业现场环境,利用双目视觉里程计和GPS及IMU数据定位,同时创建作业环境概要地图;2)实时定位与路径引导的过程中,同时利用双目视觉里程计进行全局米制定位和利用闭环检测进行拓扑定位;3)判断出回路闭合时,利用场景特征计算出位姿偏差,对当前全局位姿进行纠偏,完成样本库更新;4)利用拓扑概要地图和实时定位结果,进行作业任务路径规划与作业路径引导提示,将信息推送给使用者。本发明针对室外环境下的设备巡检运维等一类任务的可穿戴式作业辅助系统,提供可靠、实时的作业路径引导及定位功能。
-
-