高风险场景下驾驶人风险响应与主动决策方法及装置

    公开(公告)号:CN116968730A

    公开(公告)日:2023-10-31

    申请号:CN202310755780.X

    申请日:2023-06-25

    Applicant: 清华大学

    Abstract: 本申请涉及一种高风险场景下驾驶人风险响应与主动决策方法及装置,包括:根据所获取的满足风险条件的场景下多个驾驶人眼动的时空特征信息,确定多个驾驶人的视觉注意特性,基于根据视觉注意特性和视网膜成像原理确定的多个驾驶人风险认知的感知特性,获取多个驾驶人风险认知的视觉注意力累积信息,根据基于视觉注意力累积信息所构建的表征驾驶人决策操纵行为的驾驶人漂移扩散决策模型,量化输出每个驾驶人驾驶过程风险响应和主动决策。由此,解决现有模型应用过程中难以充分解释人类风险认知行为产生机理,且未量化道路条件和车辆属性等因素对驾驶人风险响应与主动决策产生的影响等问题,对实现个性化自动驾驶、促进道路交通安全具有重要意义。

    一种车载视觉实时多车载目标横纵向距离估计方法

    公开(公告)号:CN110706271B

    公开(公告)日:2022-02-15

    申请号:CN201910939170.9

    申请日:2019-09-30

    Applicant: 清华大学

    Abstract: 本发明公开了一种一种车载视觉实时多车载目标横纵向距离估计方法,该方法包括:步骤1,根据输入自车相机采集到的二维图像,利用纵向距离估计模型,输出所述二维图像中第i个目标框的对应的纵向距离;步骤2,根据输入自车相机采集到的二维图像以及步骤1获得的纵向距离,利用横向距离估计模型,输出所述二维图像中第i个目标框的横向距离;步骤3,按照所述步骤1和步骤2提供的方法,获取所述二维图像中的各个目标框的纵向距离和横向距离,以得到所述二维图像中的所述各个目标框的纵向距离集合和其相应的横向距离集合。本发明能准确实时地估计车载目标在世界坐标系下的横纵向距离,是车载视觉环境下三维车载目标检测的重要支撑技术,可为智能车辆的碰撞预警和路径规划提供依据。

    一种车辆行驶环境下易受伤害道路使用者的轨迹预测方法

    公开(公告)号:CN112734808A

    公开(公告)日:2021-04-30

    申请号:CN202110069140.4

    申请日:2021-01-19

    Applicant: 清华大学

    Abstract: 本发明公开了一种车辆行驶环境下易受伤害道路使用者的轨迹预测方法,该方法包括:根据训练数据集中的前N步VRU图像框序列、前N步VRU运动轨迹序列和前N步自车驾驶里程计序列,计算语义向量;预测VRU行为特征;根据语义向量和训练数据集的后M步VRU运动轨迹序列、后M步自车驾驶里程计序列,利用行为模式预测网络以持续迭代计算的方式预测生成VRU的先验行为模式分布和后验行为模式分布、以及利用轨迹预测网络以持续迭代计算的方式预测VRU运动轨迹;计算行为模式目标函数、轨迹预测目标函数和行为特征目标函数;通过反向传播实现监督学习,获得支持输入规划的自车驾驶里程计序列的VRU运动轨迹预测模型;在线轨迹预测阶段。本发明方法可用于先进驾驶辅助系统中易受伤害道路使用者的行为预测和安全保护,为无人驾驶车辆的决策提供帮助。

    一种车载视觉实时多目标航向角估计方法及装置

    公开(公告)号:CN111291786A

    公开(公告)日:2020-06-16

    申请号:CN202010054543.7

    申请日:2020-01-17

    Applicant: 清华大学

    Abstract: 本发明公开了一种车载视觉实时多目标航向角估计方法及装置,该方法包括:步骤1,采用离线数据集事先训练好的单阶段二维目标检测模型YOLOv3提取输入的单目单帧图像的深度卷积神经网络特征图;步骤2,在深度卷积神经网络特征图上进行二维目标的优化定位,并对车辆、行人和骑车人三类交通道路参与者多目标进行分类优化,输出目标框所对应目标的二维位置和类别;步骤3,根据深度卷积神经网络特征图、目标的二维位置和类别,通过直接回归该目标的连续观测角度α,分别得到观测角度α的正弦值sinα和余弦值cosα,考虑角度的周期性同时平方和约束正弦值sinα和余弦值cosα,最终获得目标相对自车的观测角度α的唯一确定值。本发明能够在车辆行驶过程中准确实时地估计车载目标在世界坐标系下的观测,为车载目标的轨迹预测和智能车辆的碰撞预警提供依据。

    一种车载视觉实时多车载目标横纵向距离估计方法

    公开(公告)号:CN110706271A

    公开(公告)日:2020-01-17

    申请号:CN201910939170.9

    申请日:2019-09-30

    Applicant: 清华大学

    Abstract: 本发明公开了一种一种车载视觉实时多车载目标横纵向距离估计方法,该方法包括:步骤1,根据输入自车相机采集到的二维图像,利用纵向距离估计模型,输出所述二维图像中第i个目标框的对应的纵向距离;步骤2,根据输入自车相机采集到的二维图像以及步骤1获得的纵向距离,利用横向距离估计模型,输出所述二维图像中第i个目标框的横向距离;步骤3,按照所述步骤1和步骤2提供的方法,获取所述二维图像中的各个目标框的纵向距离和横向距离,以得到所述二维图像中的所述各个目标框的纵向距离集合和其相应的横向距离集合。本发明能准确实时地估计车载目标在世界坐标系下的横纵向距离,是车载视觉环境下三维车载目标检测的重要支撑技术,可为智能车辆的碰撞预警和路径规划提供依据。

    一种组合车载雷达标定方法

    公开(公告)号:CN107918113A

    公开(公告)日:2018-04-17

    申请号:CN201611001745.5

    申请日:2016-11-14

    Abstract: 本发明涉及一种组合车载雷达标定方法,该方法包括S100,在车辆上安装前向雷达、后向雷达以及侧向雷达;S200,标定前向雷达和后向雷达的安装位置信息;S300,根据前向雷达或后向雷达的检测范围、侧向雷达的检测范围以及侧向雷达预计的安装角度,选定前向雷达或后向雷达与相应的侧向雷达都能检测到的共同检测区域,以确定侧向雷达的安装位置信息。本发明利用前/后向雷达与侧向雷达的共同检测区域,通过前/后向雷达与侧向雷达显示同一目标的位置信息,能够完成对前/后向雷达与侧向雷达的标定。

    高风险场景下驾驶人风险响应与主动决策方法及装置

    公开(公告)号:CN116968730B

    公开(公告)日:2024-03-19

    申请号:CN202310755780.X

    申请日:2023-06-25

    Applicant: 清华大学

    Abstract: 本申请涉及一种高风险场景下驾驶人风险响应与主动决策方法及装置,包括:根据所获取的满足风险条件的场景下多个驾驶人眼动的时空特征信息,确定多个驾驶人的视觉注意特性,基于根据视觉注意特性和视网膜成像原理确定的多个驾驶人风险认知的感知特性,获取多个驾驶人风险认知的视觉注意力累积信息,根据基于视觉注意力累积信息所构建的表征驾驶人决策操纵行为的驾驶人漂移扩散决策模型,量化输出每个驾驶人驾驶过程风险响应和主动决策。由此,解决现有模型应用过程中难以充分解释人类风险认知行为产生机理,且未量化道路条件和车辆属性等因素对驾驶人风险响应与主动决策产生的影响等问题,对实现个性化自动驾驶、促进道路交通安全具有重要意义。

    一种车载视觉实时多目标多任务联合感知方法和装置

    公开(公告)号:CN111310574B

    公开(公告)日:2022-10-14

    申请号:CN202010054709.5

    申请日:2020-01-17

    Applicant: 清华大学

    Abstract: 本发明公开了一种车载视觉实时多目标多任务联合感知方法和装置。所述方法包括下述步骤:步骤S1,利用深度卷积网络特征提取器(4)对车载单目相机采集的单帧图像(5)进行图像特征提取;步骤S2,基于步骤S1提取的图像特征,预测各目标的类别及其在图像坐标系中的二维位置;步骤S3,基于步骤S1提取的图像特征以及步骤S2的检测结果,估计对于各目标进行三维重建所需要的三维位置、观测朝向和尺寸信息,包括估计各目标三维中心在世界坐标系中的纵向距离、目标三维中心在图像平面的投影位置、目标的观测角度值及目标真实三维尺寸偏差值;步骤S4,道路分割:基于步骤S1提取的图像特征,输出所述单帧图像的场景中的道路分割结果。

    一种车载视觉实时多目标多任务联合感知方法和装置

    公开(公告)号:CN111310574A

    公开(公告)日:2020-06-19

    申请号:CN202010054709.5

    申请日:2020-01-17

    Applicant: 清华大学

    Abstract: 本发明公开了一种车载视觉实时多目标多任务联合感知方法和装置。所述方法包括下述步骤:步骤S1,利用深度卷积网络特征提取器(4)对车载单目相机采集的单帧图像(5)进行图像特征提取;步骤S2,基于步骤S1提取的图像特征,预测各目标的类别及其在图像坐标系中的二维位置;步骤S3,基于步骤S1提取的图像特征以及步骤S2的检测结果,估计对于各目标进行三维重建所需要的三维位置、观测朝向和尺寸信息,包括估计各目标三维中心在世界坐标系中的纵向距离、目标三维中心在图像平面的投影位置、目标的观测角度值及目标真实三维尺寸偏差值;步骤S4,道路分割:基于步骤S1提取的图像特征,输出所述单帧图像的场景中的道路分割结果。

    一种组合车载雷达标定方法

    公开(公告)号:CN107918113B

    公开(公告)日:2020-03-20

    申请号:CN201611001745.5

    申请日:2016-11-14

    Abstract: 本发明涉及一种组合车载雷达标定方法,该方法包括S100,在车辆上安装前向雷达、后向雷达以及侧向雷达;S200,标定前向雷达和后向雷达的安装位置信息;S300,根据前向雷达或后向雷达的检测范围、侧向雷达的检测范围以及侧向雷达预计的安装角度,选定前向雷达或后向雷达与相应的侧向雷达都能检测到的共同检测区域,以确定侧向雷达的安装位置信息。本发明利用前/后向雷达与侧向雷达的共同检测区域,通过前/后向雷达与侧向雷达显示同一目标的位置信息,能够完成对前/后向雷达与侧向雷达的标定。

Patent Agency Ranking