-
公开(公告)号:CN118097260A
公开(公告)日:2024-05-28
申请号:CN202410225011.3
申请日:2024-02-29
Applicant: 北京理工大学
IPC: G06V10/764 , G01S17/86 , G06V10/42 , G06V10/80
Abstract: 本发明公开了一种激光雷达和视觉相机融合的目标检测方法及系统,所述目标检测方法包括:获得以空间球坐标系表示的激光雷达点云数据;将空间球坐标系下的点云数据进行视锥网格化处理;从得到的点云视锥网格内进行点云数据的特征提取,得到图像视锥网格特征;将图像视锥网格特征与经视觉相机获得的视觉图像的特征进行融合,得到融合图像,通过融合图像进行目标检测。本发明可有效解决现有融合检测方法中视觉图像深度信息易缺失、通过视觉图像像素点拟合获得概率深度低效且不可靠的问题,并可有效解决现有融合检测方法中没有充分利用Z轴方向的空间信息,导致特征损失的问题,特别适用于自动驾驶领域。
-
公开(公告)号:CN118864274A
公开(公告)日:2024-10-29
申请号:CN202410930361.X
申请日:2024-07-11
Applicant: 北京理工大学
Abstract: 本发明公开了一种面向十字路口场景的多视角相机图像拼接方法,致力于前融合,属于相机的多视角图像拼接技术领域,对获取的十字路口场景的多视角相机图像分别进行深度估计,得到深度信息;对所述深度信息通过像素坐标变换为相机坐标系,利用相机的外参数将相机坐标系中的三维信息转换到世界坐标系,得到BEV视角下的三维信息;将BEV视角下的三维信息沿垂直于地面方向归一化处理,得到处理后的俯视图图像;使用平面拼接方法进行图像拼接,包括特征检测和间隙优化,得到优化后的拼接图像;利用所述方法实现路侧视角下的纯图像拼接任务,以实现可视化,并有利于目标检测。
-
公开(公告)号:CN118097955A
公开(公告)日:2024-05-28
申请号:CN202410224861.1
申请日:2024-02-29
Applicant: 北京理工大学
IPC: G08G1/01 , H04W4/44 , G06V10/764 , G06V10/42 , G06T7/246
Abstract: 本发明公开了一种车路协同目标检测方法及系统,所述检测方法基于BEVFormer模型建立,可解决现有检测方法中的时延问题,提高检测系统对时延的鲁棒性,同时其以BEVFormer解码器输出的查询向量等作为传输信息,解决了现有的基于BEV特征传输的检测方法的信息冗余、信息传输量大的问题,可显著提高三维目标匹配精度。
-
公开(公告)号:CN119027934A
公开(公告)日:2024-11-26
申请号:CN202411109995.5
申请日:2024-08-14
Applicant: 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院)
Abstract: 本发明公开了一种应用于自动驾驶的协同置信度融合感知方法,属于自动驾驶领域,本方法消除了不同智能体之间的感知模型差异,充分利用不同模态传感器数据的优势,避免了为了实现特征统一而强行将不擅长提取BEV特征的视觉图片转换为BEV特征的操作,在充分发挥不同模态数据特征的优势、学习适应于特定模型所擅长特征的优势、以及协同感知自带的协同性优势的基础下,实现更好的协同感知效果。
-
-
-