基于自监督神经网络的视觉-惯导-雷达融合自定位方法

    公开(公告)号:CN116824433A

    公开(公告)日:2023-09-29

    申请号:CN202310495293.4

    申请日:2023-05-05

    Abstract: 本发明涉及一种基于自监督神经网络的视觉‑惯导‑雷达融合自定位方法,包括:获取视频帧序列、惯导数据和激光雷达点云图;将视频帧序列、惯导数据和激光雷达点云图输入至位姿估计网络模型,得到输入视频帧的相对位姿估计;其中,位姿估计网络模型包括:深度预测网络,用于根据输入的视频帧序列得到深度图;特征提取网络,用于分别对输入的视频帧序列、惯导数据和激光雷达点云图提取特征信息,得到视觉特征、动量特征和雷达特征;特征融合网络,用于将视觉特征和雷达特征进行融合得到预融合特征,再将预融合特征与动量特征进行融合,得到融合特征;位姿估计网络,用于根据融合特征预测位姿变换矩阵。本发明提升了自监督深度定位算法的定位精度。

Patent Agency Ranking