一种基于多源异步信息融合的目标状态估计方法及系统

    公开(公告)号:CN114662577B

    公开(公告)日:2024-11-05

    申请号:CN202210240143.4

    申请日:2022-03-10

    Applicant: 清华大学

    Abstract: 本发明涉及一种基于多源异步信息融合的目标状态估计方法及系统,其包括:确定观测变量,根据感知需求确定状态变量,构建交通场景动态目标状态估计的优化问题;基于滑动时间窗、三次样条插值模型及有限状态控制量进行任意时刻状态变量描述,构建时间转换关系,并结合车身坐标到传感器坐标的空间转换关系,完成状态控制量到任意时刻观测量的时空映射关系,得到观测值;基于任意时刻感知传感器的多源异步观测信息,以及三次样条插值模型,求解优化问题,得到对环境中目标状态信息的估计结果。本发明能够控制计算复杂度,节约计算资源;可以广泛在智能汽车的环境感知领域中应用。

    自动驾驶车辆驾驶场景重构及决策推演评估方法和系统

    公开(公告)号:CN115758721A

    公开(公告)日:2023-03-07

    申请号:CN202211432998.3

    申请日:2022-11-16

    Applicant: 清华大学

    Abstract: 本发明涉及一种自动驾驶车辆驾驶场景重构及决策推演评估方法和系统,包括以下步骤:利用真实驾驶场景中某一时刻的驾驶数据在虚拟环境中重构该驾驶场景,并以该时刻作为虚拟环境的起始时刻,利用场景反应式模型对下一时刻虚拟环境中驾驶场景内所有元素的状态信息进行更新,迭代后得到一系列连续时刻的虚拟环境的驾驶场景;其中,所述场景反应式模型基于采集的自动驾驶车辆在真实世界驾驶场景中多个连续时刻的驾驶数据,预先训练而成;基于得到的一系列连续时刻的虚拟环境的驾驶场景,对自动驾驶车辆的自动驾驶决策效果进行推演和评估。本发明可以广泛应用于智能车辆领域。

    一种基于多源异步信息融合的目标状态估计方法及系统

    公开(公告)号:CN114662577A

    公开(公告)日:2022-06-24

    申请号:CN202210240143.4

    申请日:2022-03-10

    Applicant: 清华大学

    Abstract: 本发明涉及一种基于多源异步信息融合的目标状态估计方法及系统,其包括:确定观测变量,根据感知需求确定状态变量,构建交通场景动态目标状态估计的优化问题;基于滑动时间窗、三次样条插值模型及有限状态控制量进行任意时刻状态变量描述,构建时间转换关系,并结合车身坐标到传感器坐标的空间转换关系,完成状态控制量到任意时刻观测量的时空映射关系,得到观测值;基于任意时刻感知传感器的多源异步观测信息,以及三次样条插值模型,求解优化问题,得到对环境中目标状态信息的估计结果。本发明能够控制计算复杂度,节约计算资源;可以广泛在智能汽车的环境感知领域中应用。

    实现自动驾驶决策的方法、装置、计算机存储介质及终端

    公开(公告)号:CN114030488A

    公开(公告)日:2022-02-11

    申请号:CN202210024357.8

    申请日:2022-01-11

    Applicant: 清华大学

    Abstract: 本文公开一种实现自动驾驶决策的方法、装置、计算机存储介质及终端,本发明实施例通过概率目标检测对图像信息进行处理获得包含多个概率目标检测结果的概率目标检测结果集合,概率目标检测结果集合包含的概率目标检测结果估计了目标检测过程中的不确定性,每一个概率目标检测结果和感知信息生成一个环境状态信息,由概率目标检测结果集合中的概率目标检测结果与感知信息生成环境状态信息集合,进而基于环境状态信息集合生成了考虑不确定性的可选动作集合,根据可选动作集合和环境状态信息集合确定用于车辆驾驶控制的动作,提升了在感知结果不能保证完全准确时的自动驾驶的安全性。

    可信赖学习型自动驾驶决策方法、系统、存储介质及设备

    公开(公告)号:CN113879323A

    公开(公告)日:2022-01-04

    申请号:CN202111246972.5

    申请日:2021-10-26

    Applicant: 清华大学

    Abstract: 本发明涉及一种可信赖学习型自动驾驶决策方法、系统、存储介质及设备,其包括:基于预先设定的决策问题构建可解释性决策,由所述可解释性决策引导所述学习型决策训练;由所述决策问题对学习型决策进行训练,得到具有高价值的决策价值函数的学习型决策;选取所述学习型决策和所述可解释性决策两者中价值高的决策,作为最终可信赖的学习型决策动作。本发明能实现对自动驾驶汽车学习型决策的可信赖度保障,以保证自动驾驶汽车的高可信赖性。本发明可以广泛在自动驾驶技术领域中应用。

    一种激光点云与视觉图像映射关系快速精确标定方法

    公开(公告)号:CN108198223B

    公开(公告)日:2020-04-07

    申请号:CN201810082993.X

    申请日:2018-01-29

    Applicant: 清华大学

    Abstract: 本发明涉及一种激光点云与视觉图像映射关系快速精确标定方法,该标定方法包括以下步骤:1)设置一带方孔的棋盘格标定板,并将标定板同时置于激光雷达与相机的视野中,经激光点云和视觉图像的特征点提取,得到n组对应的特征点;2)进行单应性矩阵初解计算;3)进行单应性矩阵极大似然估计;4)进行相机畸变参数极大似然估计;5)进行激光点云和视觉图像映射关系中全部映射参数极大似然估计。本发明基于单应性矩阵直接构建三维点云与视觉图像像素间直接的映射关系,而不需对相机内参矩阵和传感器外参矩阵进行标定,采用这种标定方法不仅减少了标定步骤,而且由于是直接对映射结果进行优化,不会造成标定误差的传递,有着更高的标定精度。

    一种基于特征点在线动态标定的单目视觉车辆定位方法

    公开(公告)号:CN108106627B

    公开(公告)日:2019-08-09

    申请号:CN201711384246.3

    申请日:2017-12-20

    Applicant: 清华大学

    Abstract: 本发明涉及一种基于特征点在线动态标定的单目视觉车辆定位方法,其步骤:搭载相机的车辆为后车,在相机的图像中发现欲定位的车辆即为前车;为定位前车,连续采集前车图像序列,建立空间模型及坐标系;在平直道路上,首先对每一帧图像进行分析,识别前车特征点并记录其特征属性,同时初步估计这些特征点在空间中的位置;根据连续多个时刻获取的车辆特征点匹配与分析,获得其中用于标定的特征点库;获得标定特征点库后,需要获得其中每个特征点的标定后空间位置;完成特征点标定后,将标定信息用于颠簸道路与坡道的前车定位,建立空间关系,完成在颠簸路面与坡道上的车辆定位。本发明实现在多种复杂路况下的高精度、高适应性车辆位置估计。

    一种基于规则与学习模型的无人驾驶汽车驶离高速的方法

    公开(公告)号:CN109598934A

    公开(公告)日:2019-04-09

    申请号:CN201811524283.4

    申请日:2018-12-13

    Applicant: 清华大学

    Abstract: 本发明涉及一种基于融合规则与学习模型的无人驾驶汽车驶离高速的方法,其步骤:无人驾驶汽车在高速公路行驶过程中,根据导航系统在匝道前一段距离产生下匝道动机,利用规则模型尝试下匝道,并判断基于规则的决策模型下匝道是否降低成功率,若没有降低,则采用规则模型决策动作,反之则进入下一步;基于增强学习的框架建立混合规则与增强学习的混合决策模型及其训练方法,混合决策模型能够在远离匝道时采用规则模型驾驶,并在驶向匝道过程中,根据下匝道紧迫性利用增强学习决策模型调整车辆动作。本发明能提升无人驾驶汽车下匝道过程的行驶效率与稳定性,实现在有限感知范围,难以预测的环境车辆条件下,无人驾驶汽车高效、高稳定性的下匝道决策。

    一种激光点云与视觉图像映射关系快速精确标定方法

    公开(公告)号:CN108198223A

    公开(公告)日:2018-06-22

    申请号:CN201810082993.X

    申请日:2018-01-29

    Applicant: 清华大学

    Abstract: 本发明涉及一种激光点云与视觉图像映射关系快速精确标定方法,该标定方法包括以下步骤:1)设置一带方孔的棋盘格标定板,并将标定板同时置于激光雷达与相机的视野中,经激光点云和视觉图像的特征点提取,得到n组对应的特征点;2)进行单应性矩阵初解计算;3)进行单应性矩阵极大似然估计;4)进行相机畸变参数极大似然估计;5)进行激光点云和视觉图像映射关系中全部映射参数极大似然估计。本发明基于单应性矩阵直接构建三维点云与视觉图像像素间直接的映射关系,而不需对相机内参矩阵和传感器外参矩阵进行标定,采用这种标定方法不仅减少了标定步骤,而且由于是直接对映射结果进行优化,不会造成标定误差的传递,有着更高的标定精度。

    一种利用车联网获取前车特征的单目视觉车辆测距方法

    公开(公告)号:CN107390205A

    公开(公告)日:2017-11-24

    申请号:CN201710595300.2

    申请日:2017-07-20

    Applicant: 清华大学

    CPC classification number: G01S11/12 G06T7/60 G06T7/80 G06T2207/30252

    Abstract: 本发明涉及一种利用车联网获取前车特征的单目视觉车辆测距方法,其步骤:获得目标车辆的车联网信息,通过相机获得目标车辆的图像信息;由车联网信息获得前车特征点之间的空间关系信息,利用空间关系信息与图像信息中各前车特征点位置建立空间模型,基于该空间模型对前车位置进行估计:建立一个空间直角坐标系;将前车特征点在二维图像上的位置转换成能够用于求解车辆实际坐标的参数;初步估计前车位置并计算能够表征前车位置与各前车特征点的距离;计算前车估计值与真实值的差别度;通过调整相机估计位置降低差别度的值,判断差别度是否为最小差别度,是则通过相机的位置判断前车与后车间的相对位置关系;反之则重新选择相机估计位置,重新估计。

Patent Agency Ranking