-
公开(公告)号:CN116400701A
公开(公告)日:2023-07-07
申请号:CN202310391189.0
申请日:2023-04-13
Applicant: 大连理工大学
IPC: G05D1/02
Abstract: 本发明公开了一种基于深度强化学习的移动机器人在线路径规划方法,具体步骤如下:通过激光雷达获取障碍物信息,通过ROS内置插件获取机器人位置信息以及目标点信息,将两者进行处理并整合为机器人状态S。将状态S输入至DDPG网络中获取最优执行动作,使得机器人在导航过程中迅速安全的到达目标点;设计LSTM与Actor网络级联的结构;改进的经验回放池的结构采用线段树,可以高效的更新由于回合数量不断增加导致的权重变化;针对Critic网络的优化采用添加动量项的分数阶梯度下降算法,相比整数阶既可以提高准确性又可以提高收敛速度;本发明用以解决常规DDPG用于机器人路径规划时存在的准确率低以及收敛速度慢等问题。
-
公开(公告)号:CN118031957A
公开(公告)日:2024-05-14
申请号:CN202410097639.X
申请日:2024-01-24
Applicant: 大连理工大学 , 大连博岳智能装备有限公司
IPC: G01C21/20 , G06N3/0464 , G06N3/045 , G06N3/092 , G06N3/084
Abstract: 本发明公开了一种基于改进DQN算法的移动机器人在线路径规划方法,具体步骤如下:改进DQN神经网络模型,增添一个动作价值评估网络e来辅助Q网络对动作的选取。通过将整体环境图片信息通过处理所得到的包含四种像素信息的矩阵信息作为机器人的状态信息S,输入至Q网络与e网络中;考虑到一般的路径规划问题,每次训练所使用的的二维栅格地图均采用随机生成的方式;经验回放池由两种不同优先级的回放池所组成,在训练的不同阶段根据训练目标的不同,采取不同的比例抽取经验;针对DQN主网络训练网络参数的方法,采用添加动量项的分数阶梯度下降算法;本发明用以解决常规DQN用于机器人路径规划时存在的成功率低以及收敛速度慢等问题。
-