-
公开(公告)号:CN109919957A
公开(公告)日:2019-06-21
申请号:CN201910017402.5
申请日:2019-01-08
Applicant: 同济大学
Abstract: 本发明涉及一种基于动态视觉传感器的角点检测方法,包括以下步骤:1)针对动态视觉传感器数据中每一个新传入的事件,以其为圆心,构建角点检测模板;2)根据圆心处事件的极性与时间戳,统计模板内相应事件的个数;3)根据所统计相应事件的个数,判定圆心处是否为初始角点;4)对所确定的初始角点进行非极大值抑制,获得最终角点。与现有技术相比,本发明具有快速准确等优点。
-
公开(公告)号:CN114049542B
公开(公告)日:2025-03-28
申请号:CN202111253666.4
申请日:2021-10-27
Applicant: 同济大学
IPC: G06V10/80 , G06T5/70 , G06T7/11 , G06T7/136 , G06T7/30 , G01S17/931 , G01S17/89 , G01S17/86 , G01C3/00
Abstract: 本发明涉及一种动态场景下基于多传感器的融合定位方法,该方法包括:S1、获取动态视觉传感器相机采集的动态事件点云以及激光雷达采集的环境点云数据;S2、对动态事件点云进行处理并滤除噪声事件得到动态物体图像;S3、对动态物体图像中的动态物体进行识别,框选动态物体区域;S4、将动态物体区域映射至环境点云数据中剔除动态物体点云获取静态环境点云;S5、将静态环境点云与地图特征进行配准,获取定位信息。与现有技术相比,本发明定位精度和鲁棒性大大提高。
-
公开(公告)号:CN114049542A
公开(公告)日:2022-02-15
申请号:CN202111253666.4
申请日:2021-10-27
Applicant: 同济大学
IPC: G06V10/80 , G06T5/00 , G06T7/11 , G06T7/136 , G06T7/30 , G01S17/931 , G01S17/89 , G01S17/86 , G01C3/00
Abstract: 本发明涉及一种动态场景下基于多传感器的融合定位方法,该方法包括:S1、获取动态视觉传感器相机采集的动态事件点云以及激光雷达采集的环境点云数据;S2、对动态事件点云进行处理并滤除噪声事件得到动态物体图像;S3、对动态物体图像中的动态物体进行识别,框选动态物体区域;S4、将动态物体区域映射至环境点云数据中剔除动态物体点云获取静态环境点云;S5、将静态环境点云与地图特征进行配准,获取定位信息。与现有技术相比,本发明定位精度和鲁棒性大大提高。
-
公开(公告)号:CN109919957B
公开(公告)日:2020-11-27
申请号:CN201910017402.5
申请日:2019-01-08
Applicant: 同济大学
Abstract: 本发明涉及一种基于动态视觉传感器的角点检测方法,包括以下步骤:1)针对动态视觉传感器数据中每一个新传入的事件,以其为圆心,构建角点检测模板;2)根据圆心处事件的极性与时间戳,统计模板内相应事件的个数;3)根据所统计相应事件的个数,判定圆心处是否为初始角点;4)对所确定的初始角点进行非极大值抑制,获得最终角点。与现有技术相比,本发明具有快速准确等优点。
-
-
-
-