-
公开(公告)号:CN117053804A
公开(公告)日:2023-11-14
申请号:CN202310809383.6
申请日:2023-07-03
Applicant: 清华大学
Abstract: 本发明提供一种地图构建方法及装置,其中方法包括:实时获取点云数据和图像数据,所述点云数据包括相邻多帧点云,所述图像数据包括相邻多帧图像;对所述点云数据和所述图像数据进行特征提取,获得点云特征向量集和图像特征向量集;基于所述点云特征向量集和所述图像特征向量集,获得状态估计;基于所述点云数据、所述图像数据和所述状态估计构建隐式函数,所述隐式函数用于表示地图。本发明实施例提供的地图构建方法及装置,基于多模态数据获得状态估计,从而提高地图构建的准确性;另外,通过隐式函数表示地图,完成地图任意分辨率的高逼真描述,同时降低存储量。
-
公开(公告)号:CN119141562A
公开(公告)日:2024-12-17
申请号:CN202411271408.2
申请日:2024-09-11
Applicant: 清华大学
Abstract: 本发明涉及机器人领域,提供一种仿生眼装置。仿生眼装置包括两个仿生眼球本体;第一连杆,第一连杆的两端分别通过传动组件与两个仿生眼球本体传动连接;第一驱动件,第一驱动件与第一连杆铰接,以带动第一连杆在水平面内转动,第一连杆基于第一驱动件的动作带动两个仿生眼球在水平面内转动;第二驱动件,第二驱动件与第一驱动件连接,以带动第一驱动件以及两个仿生眼球在竖直平面内转动。该仿生眼装置使得仿生眼球的运动更加接近真实眼球的生理机制;实现了对仿生眼球运动的精准控制;而且该仿生眼球装置结构紧凑、集成度高,便于安装和维护。
-
公开(公告)号:CN119027786A
公开(公告)日:2024-11-26
申请号:CN202410909544.3
申请日:2024-07-08
Applicant: 清华大学 , 梅赛德斯-奔驰集团股份公司
IPC: G06V10/96 , G06V10/771
Abstract: 本发明提供一种基于模型合并的多感知任务处理方法、装置及电子设备,其中的方法包括:确定待合并的多种感知任务适配模型;基于构建的合并矩阵和分离矩阵,合并多种感知任务适配模型,得到目标感知任务处理模型;基于目标感知任务处理模型,对一种或多种感知任务进行处理,得到任务处理结果。该方法通过构建的合并矩阵和分离矩阵将多种感知任务适配模型合并入同一个目标感知任务处理模型中,不仅保留了原始的多种感知任务模型的特性,还允许目标感知任务处理模型在多数据集、多感知任务处理上表现更为有效,扩展了模型的应用范围和处理能力,有效节省了多数据集、多感知任务适配模型的存储空间。
-
公开(公告)号:CN117710192A
公开(公告)日:2024-03-15
申请号:CN202311521904.4
申请日:2023-11-15
Applicant: 清华大学 , 梅赛德斯-奔驰集团股份公司
Abstract: 本发明提供一种图像风格迁移方法和装置,包括:获取预训练的图像风格迁移模型;利用图像风格迁移模型,将目标图像从第一风格迁移到第二风格。本发明预先训练能在保持图像语义完全不变的情况下,对仿真场景图像进行风格迁移使其与现实场景图像的风格一致的图像风格迁移模型,通过应用图像风格迁移模型,可以大规模生成现实图像及其对应的高精度语义分割图像,进而可构建高精度的图像语义分割网络。
-
公开(公告)号:CN119206663A
公开(公告)日:2024-12-27
申请号:CN202411090861.3
申请日:2024-08-09
Applicant: 清华大学 , 梅赛德斯-奔驰集团股份公司
IPC: G06V20/58 , G06V20/70 , G06V10/25 , G06V10/26 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0985
Abstract: 本发明提供一种基于端到端自动驾驶大模型的驾驶行为标注方法及装置,其中的方法包括:获取当前驾驶场景的多视角图像;基于预先训练的端到端自动驾驶大模型,获取多视角图像对应的多组查询向量;获取提示词文本,并根据提示词文本和多组查询向量,获取当前驾驶行为的标注结果。该方法通过将端到端自动驾驶大模型中多个功能模块输出的多组查询向量作为驾驶行为标注的触发条件之一,而不是仅以图像作为驾驶行为标注的触发条件,能够实现对自动驾驶行为的准确、有效标注,标注结果和自动驾驶大模型的中间输出结果具有高度一致性,进而提升自动驾驶行为的标注精度和可解释性。
-
公开(公告)号:CN119026313A
公开(公告)日:2024-11-26
申请号:CN202410909542.4
申请日:2024-07-08
Applicant: 清华大学 , 梅赛德斯-奔驰集团股份公司
Abstract: 本发明提供一种自动驾驶仿真场景生成方法、装置及电子设备,其中的方法包括:基于预先训练的生成式模型,根据预测的正态分布生成自动驾驶仿真场景图像;基于待训练优化的感知模型,获取自动驾驶仿真场景图像对应的梯度和控制强度;基于生成式模型,根据自动驾驶仿真场景图像对应的梯度和控制强度,生成目标自动驾驶仿真场景图像;目标自动驾驶仿真场景图像用于训练优化感知模型。该方法通过利用感知模型提供调整自动驾驶仿真场景图像的方向性信息,改善生成式模型的采样结果,不仅降低了生成式模型所需的生成采样次数,还使得生成式模型所生成的目标自动驾驶仿真场景图像能够更符合下游任务的需求,进而提升感知模型在下游任务上的预测准确度。
-
公开(公告)号:CN117372990A
公开(公告)日:2024-01-09
申请号:CN202311181635.1
申请日:2023-09-13
Applicant: 清华大学
IPC: G06V20/58 , G06V10/44 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08 , G01S17/89
Abstract: 本发明提供一种点云异常检测方法、系统及自动驾驶车辆,该方法包括:获取激光雷达感知的车辆周围环境的点云数据;将车辆周围环境的点云数据,输入预先建立和训练好的点云异常检测网络模型,输出点云异常检测结果;点云异常检测网络模型,用于对融合感知数据进行分类识别,并通过预设损失函数进行监督学习训练;融合感知数据为激光雷达感知的已知场景和基于点云深度学习数据集生成的伪异常物体融合后的数据。本发明在应用在自动驾驶车辆上,可以实现对车辆周围进行环境感知,准确分类和识别未知异常物体,提高点云异常检测的泛化性能,进而提高点云异常检测的精准度。
-
公开(公告)号:CN117058438A
公开(公告)日:2023-11-14
申请号:CN202310806936.2
申请日:2023-07-03
Applicant: 清华大学
IPC: G06V10/764 , G06V10/774 , G06V10/80 , G06T7/80 , G06N3/045 , G06N3/0455 , G06N3/0464 , G06N3/0895
Abstract: 本发明提供一种夜间场景单目图像深度估计方法及装置,其中方法包括:获取待处理夜间单目图像;将所述待处理夜间单目图像输入至深度估计模型,获得所述深度估计模型输出的深度估计结果;其中,所述深度估计模型是基于生成对抗网络构建的、并基于包括日间图像样本和夜间图像样本的图像集进行训练后得到的。本发明实施例提供的夜间场景单目图像深度估计方法及装置,基于生成对抗网络构建深度估计模型,利用生成对抗网络对日间图像样本和夜间图像样本的学习能力,使得深度估计模型能够对待处理夜间单目图像的预测结果与光照条件良好时刻下的深度估计结果相似或相同,提高夜间场景单目图像深度估计的准确率。
-
-
-
-
-
-
-