一种基于多视图融合的三维点云目标检测方法

    公开(公告)号:CN118038017A

    公开(公告)日:2024-05-14

    申请号:CN202410081806.1

    申请日:2024-01-19

    Abstract: 本发明提出了一种基于多视图融合的三维点云目标检测方法。首先,将3D点云在XOY进行投影得到2D俯视图,将3D点云转到柱坐标并将柱面剪开摊平为矩形得到2D前视图,结合3D点云的高度、密度、深度和反射强度信息对两个2D视图进行编码处理得到三通道伪RGB图像,然后利用双边滤波对图像去噪,之后将其作为目标检测网络的输入,利用能够针对点云数据进行目标检测的Complex‑YOLOv4网络作为目标检测网络,分别对前视图和俯视图进行目标检测,最后将前视图和俯视图分别得到的目标检测结果进行融合,将加权D‑S证据理论应用到多视图融合中,利用基于BPA的决策方法对其分类做判决,得到最终目标检测结果。本发明将基于3D点云多视图投影的目标检测进行融合,提高了目标检测的精度。

    一种基于特征交互融合的激光雷达点云语义分割方法

    公开(公告)号:CN118351314A

    公开(公告)日:2024-07-16

    申请号:CN202410572825.4

    申请日:2024-05-10

    Abstract: 本发明提出了一种基于特征交互融合的激光雷达点云语义分割方法。首先,本发明通过球面前视图和极坐标鸟瞰图投影得到距离视图(Range View,RV)和鸟瞰视图(Bird Eye’s View,BEV);然后,建立特征交互融合并行神经网络,提取不同视图的浅层特征和深层特征,其中在网络编码和解码阶段,交互融合不同视图的图像特征,并在特征融合处引入残差自注意力机制,以关注特征的通道和空间分布,进一步细化特征;其次,将神经网络提取到的两视图特征向量送入Softmax分类器,得到分类置信度;最后,利用基于置信度加权的决策级融合方法将两视图置信度进行加权,得到最终的语义分割结果。本发明融合了距离视图和鸟瞰视图的特征,并在不同视图间传播互补信息,为模型决策提供附加信息,能够有效提高语义分割的准确度。

    一种基于区域增长的激光雷达动态点滤除方法

    公开(公告)号:CN117911706A

    公开(公告)日:2024-04-19

    申请号:CN202410083557.X

    申请日:2024-01-19

    Abstract: 本发明提出了一种基于区域增长的激光雷达动态点滤除方法。首先,通过激光雷达在动态环境中扫描获取点云信息;其次,进行地面分割获取非地面点,再对非地面点做分区域自适应参数估计的DBSCAN聚类操作,获取非地面点的聚类标签;同时,将雷达点云的单次扫描与局部地图投影到不同分辨率的深度图上进行比较,得到点云的逐点动静态信息;其次,采用动态点帧间匹配与自适应体素滤波的方法去除错误动态点,将剩余动态点作为区域增长的种子点;然后,通过聚类找到种子点所属聚类簇中所有点,得到初步增长范围,构造K‑D树索引结构,对每个点进行限制距离与角度的邻域搜索,筛选出满足条件的点进行增长。最后,滤除所有判断得到的动态点,得到静态点云地图。

Patent Agency Ranking