-
公开(公告)号:CN114565675B
公开(公告)日:2024-09-24
申请号:CN202210202326.7
申请日:2022-03-03
Applicant: 南京工业大学
IPC: G06T7/73 , G06T7/246 , G06V20/10 , G06V10/82 , G06V10/44 , G06V10/62 , G06V10/764 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种在视觉SLAM前端去除动态特征点的方法,属于计算机视觉技术领域。该方法主要是通过将YOLOv5目标检测算法与传统视觉SLAM前端相结合,通过深度相机采集环境图像信息,对采集到的RGB图像进行ORB特征提取的同时,对其进行目标检测,对检测出的物体分为动态物体和静态物体两类,筛选并剔除仅存在于动态物体框内的特征点。之后,计算相邻两帧之间匹配对的场景流模值,建立高斯混合模型,进一步分离场景中动态物体和静态物体,剔除剩余的动态特征点。剩余的静态特征点用于特征匹配并估计相机位姿。利用本方法在ORBSLAM2前端进行测试,大大提升了其在动态环境中的定位精度,且能够满足实时性要求。
-
公开(公告)号:CN114565675A
公开(公告)日:2022-05-31
申请号:CN202210202326.7
申请日:2022-03-03
Applicant: 南京工业大学
IPC: G06T7/73 , G06T7/246 , G06V20/10 , G06V10/82 , G06V10/44 , G06V10/62 , G06V10/764 , G06N3/04 , G06N3/08 , G06K9/62
Abstract: 本发明公开了一种在视觉SLAM前端去除动态特征点的方法,属于计算机视觉技术领域。该方法主要是通过将YOLOv5目标检测算法与传统视觉SLAM前端相结合,通过深度相机采集环境图像信息,对采集到的RGB图像进行ORB特征提取的同时,对其进行目标检测,对检测出的物体分为动态物体和静态物体两类,筛选并剔除仅存在于动态物体框内的特征点。之后,计算相邻两帧之间匹配对的场景流模值,建立高斯混合模型,进一步分离场景中动态物体和静态物体,剔除剩余的动态特征点。剩余的静态特征点用于特征匹配并估计相机位姿。利用本方法在ORBSLAM2前端进行测试,大大提升了其在动态环境中的定位精度,且能够满足实时性要求。
-