-
公开(公告)号:CN109445440B
公开(公告)日:2022-03-22
申请号:CN201811529430.7
申请日:2018-12-13
Applicant: 重庆邮电大学
Abstract: 本发明请求保护一种基于传感器融合与改进Q学习算法的动态避障方法,包含步骤:S1:设置机器人运动时与障碍物的安全距离、目的坐标位置信息和范围;S2:确定机器人当前的位姿,进行导航路径规划,并开始前进;S3:导航过程中,将声纳传感器检测到的环境数据和激光传感器检测到环境数据进行预处理与特征化,然后相融合得到环境数据;S4:根据融合后的环境数据判断当前机器人状态是否需要进行动态避障,如果需要则进入S5,不需要则进入S6;S5:利用改进Q学习动态避障算法,得到下一步的动作状态(a,θ);S6:判断机器人是否到达目标点,如果没有则返回S2继续导航,如果已到达则结束导航。本发明方法有效地克服了单一传感器缺陷并有效地提升了动态环境中避障效率。
-
公开(公告)号:CN109445440A
公开(公告)日:2019-03-08
申请号:CN201811529430.7
申请日:2018-12-13
Applicant: 重庆邮电大学
Abstract: 本发明请求保护一种基于传感器融合与改进Q学习算法的动态避障方法,包含步骤:S1:设置机器人运动时与障碍物的安全距离、目的坐标位置信息和范围;S2:确定机器人当前的位姿,进行导航路径规划,并开始前进;S3:导航过程中,将声纳传感器检测到的环境数据和激光传感器检测到环境数据进行预处理与特征化,然后相融合得到环境数据;S4:根据融合后的环境数据判断当前机器人状态是否需要进行动态避障,如果需要则进入S5,不需要则进入S6;S5:利用改进Q学习动态避障算法,得到下一步的动作状态(a,θ);S6:判断机器人是否到达目标点,如果没有则返回S2继续导航,如果已到达则结束导航。本发明方法有效地克服了单一传感器缺陷并有效地提升了动态环境中避障效率。
-
公开(公告)号:CN111950599A
公开(公告)日:2020-11-17
申请号:CN202010698713.5
申请日:2020-07-20
Applicant: 重庆邮电大学
Abstract: 本发明公开了一种动态环境下融合边缘信息的稠密视觉里程计方法,具体步骤为:首先,根据深度信息进行场景聚类,再基于光度信息与边缘信息的聚类构建出残差模型,并引入平均背景深度,加大前景残差。然后,将残差模型与非参数统计模型相结合,分离动态物体并得到聚类权重。最后,将加权聚类残差加入到位姿估计的非线性优化函数中,以降低动态物体的影响,提高位姿估计的精度。在TUM数据集上进行实验,结果表明本文算法在动态环境下比现有算法有更高的精度与鲁棒性。
-
公开(公告)号:CN111950599B
公开(公告)日:2022-07-01
申请号:CN202010698713.5
申请日:2020-07-20
Applicant: 重庆邮电大学
Abstract: 本发明公开了一种动态环境下融合边缘信息的稠密视觉里程计方法,具体步骤为:首先,根据深度信息进行场景聚类,再基于光度信息与边缘信息的聚类构建出残差模型,并引入平均背景深度,加大前景残差。然后,将残差模型与非参数统计模型相结合,分离动态物体并得到聚类权重。最后,将加权聚类残差加入到位姿估计的非线性优化函数中,以降低动态物体的影响,提高位姿估计的精度。在TUM数据集上进行实验,结果表明本文算法在动态环境下比现有算法有更高的精度与鲁棒性。
-
-
-