一种深度、位姿与场景流的联合无监督估计方法及系统

    公开(公告)号:CN111311664B

    公开(公告)日:2023-04-21

    申请号:CN202010140536.9

    申请日:2020-03-03

    IPC分类号: G06T7/55 G06T7/593

    摘要: 本发明提供了一种深度、位姿与场景流的联合无监督估计方法及系统,包括:步骤M1:对连续两帧图像,根据深度网络得到对应的两帧深度图;步骤M2:根据两帧深度图以及位姿网络得到的连续两帧间的位姿变换;步骤M3:根据两帧间的位姿变换,结合相机模型得到在第一帧相机坐标系下,第一帧图像的空间点云以及在第二帧相机坐标系下第二帧图像的空间点云步骤M4:根据场景流差异、第一帧图像的空间点云和第二帧图像的空间点云指导深度网络、位姿网络和场景流网络的训练,实现无监督学习;本发明解决了场景流网络、深度网络、位姿网络的训练过程中缺乏标注数据集的问题,降低了训练模型的成本,并实现了较高的准确性,有利于实际应用。

    一种深度、位姿与场景流的联合无监督估计方法及系统

    公开(公告)号:CN111311664A

    公开(公告)日:2020-06-19

    申请号:CN202010140536.9

    申请日:2020-03-03

    IPC分类号: G06T7/55 G06T7/593

    摘要: 本发明提供了一种深度、位姿与场景流的联合无监督估计方法及系统,包括:步骤M1:对连续两帧图像,根据深度网络得到对应的两帧深度图;步骤M2:根据两帧深度图以及位姿网络得到的连续两帧间的位姿变换;步骤M3:根据两帧间的位姿变换,结合相机模型得到在第一帧相机坐标系下,第一帧图像的空间点云 以及在第二帧相机坐标系下第二帧图像的空间点云 步骤M4:根据场景流差异、第一帧图像的空间点云 和第二帧图像的空间点云 指导深度网络、位姿网络和场景流网络的训练,实现无监督学习;本发明解决了场景流网络、深度网络、位姿网络的训练过程中缺乏标注数据集的问题,降低了训练模型的成本,并实现了较高的准确性,有利于实际应用。