-
公开(公告)号:CN117079464A
公开(公告)日:2023-11-17
申请号:CN202311123062.7
申请日:2023-09-01
Applicant: 哈尔滨工业大学
Abstract: 考虑前方多车影响及加速度信息的跟驰模型建模方法及跟驰方法,属于车路协同、交通流建模技术领域。为了解决现有的跟驰模型考虑的因素不够全面,从而存在整体启动时间长因而影响队运行效率的问题。本发明在智能驾驶人模型的基础上,考虑前车、次前车的位置、速度因素对主车的影响,同时考虑前方紧邻车辆的加速度影响建立跟驰模型,然后基于建立的跟驰模型描述车辆跟驰行为。本发明适用于跟驰模型的建模及跟驰过程。
-
公开(公告)号:CN114013443A
公开(公告)日:2022-02-08
申请号:CN202111339265.0
申请日:2021-11-12
Applicant: 哈尔滨工业大学
Abstract: 一种基于分层强化学习的自动驾驶车辆换道决策控制方法,属于自动驾驶控制技术领域。解决了现有自动驾驶过程中存在安全性差/效率低的问题。本发明利用自动驾驶车辆实际驾驶场景中的速度及与周边环境内车辆的相对位置、相对速度信息建立带有3个隐含层的决策神经网络,并利用换道安全奖励函数对所述决策神经网络进行训练拟合Q估值函数,获取Q估值最大的动作;利用自动驾驶车辆的实际驾驶场景中的速度和周边环境车辆的相对位置信息与跟驰或换道动作对应的奖励函数,建立深度Q学习的加速度决策模型,获得换道或跟驰加速度信息,当换道时,采用5次多项式曲线生成一条参考换道轨迹。本发明适用于自动驾驶换道决策及控制。
-
公开(公告)号:CN114013443B
公开(公告)日:2022-09-23
申请号:CN202111339265.0
申请日:2021-11-12
Applicant: 哈尔滨工业大学
Abstract: 一种基于分层强化学习的自动驾驶车辆换道决策控制方法,属于自动驾驶控制技术领域。解决了现有自动驾驶过程中存在安全性差/效率低的问题。本发明利用自动驾驶车辆实际驾驶场景中的速度及与周边环境内车辆的相对位置、相对速度信息建立带有3个隐含层的决策神经网络,并利用换道安全奖励函数对所述决策神经网络进行训练拟合Q估值函数,获取Q估值最大的动作;利用自动驾驶车辆的实际驾驶场景中的速度和周边环境车辆的相对位置信息与跟驰或换道动作对应的奖励函数,建立深度Q学习的加速度决策模型,获得换道或跟驰加速度信息,当换道时,采用5次多项式曲线生成一条参考换道轨迹。本发明适用于自动驾驶换道决策及控制。
-
-