-
公开(公告)号:CN108648240B
公开(公告)日:2022-09-23
申请号:CN201810447021.6
申请日:2018-05-11
Applicant: 东南大学
Abstract: 本发明公开了一种基于点云特征地图配准的无重叠视场相机姿态标定方法,包括如下步骤:(1)对无重叠视场的多个相机进行基础标定,获得内参;(2)利用多个相机对环境进行检测并同步定位与建图,构建点云地图并提取关键帧解算相机的位姿矩阵;(3)从一个相机的关键帧中抽取图像帧,与其他相机关键帧进行相似性检测,构建匹配帧对集合和匹配点对集合,对点云地图点在图像帧上的投影与实际像素坐标进行最小化投影误差;(4)通过对匹配帧附近的帧进行特征匹配,融合所有特征点,进行全局优化,迭代求解相对位姿矩阵;根据实际情况选取修正参数,对相机进行最终姿态标定;本发明解决了传统标定方法标定工作强度大,工作效率低且精度不高的问题。
-
公开(公告)号:CN109165680B
公开(公告)日:2022-07-26
申请号:CN201810860165.4
申请日:2018-08-01
Applicant: 东南大学
IPC: G06K9/62 , G06T7/80 , G06V10/772 , G06V10/762
Abstract: 本发明公开了一种基于视觉SLAM的室内场景下单一目标物体字典模型改进方法:对于进行视觉SLAM的单目或双目相机进行基础标定,获得内参信息后对环境进行检测和前端同步定位与建图,得到点云地图;根据周边环境与单一目标物体相关特征制作图片数据集,利用DBoW2库k‑means++算法生成数据集对应的单词;进行TF‑IDF相似度计算划分单词权值,设定阈值,进行归零化处理,得到单一目标物体字典改进模型;将该改进模型结合到SLAM系统的后端优化中,通过对点云地图点在图像帧上的投影与实际像素坐标进行最小化投影误差。本发明优化了在室内场景下对于单一目标物体的回环检测的发现与点云地图的闭环融合,为一些类别环境下特定单一目标物体的同步定位与建图提供了较大的便利。
-
公开(公告)号:CN110296687B
公开(公告)日:2021-03-16
申请号:CN201910495518.X
申请日:2019-06-10
Applicant: 东南大学
Abstract: 本发明公开了一种基于定点视频监控中预置点最优布设的目标定位方法,包括如下步骤:S1:确定出监控场地中监控设备在每个监控圈中所对应的垂直倾角;S2:根据监控圈的垂直视场角和水平视场角,获取每个监控圈视场所对应的地面面积,确定出监控场地中每个监控圈中所有的监控预置点;S3:将每个监控预置点对应的垂直视场角、水平视场角和垂直倾角进行编号,并存储在预置点信息库中;S4:通过预置点信息库,确定出监控目标在监控场地中的具体位置。本发明解决了利用定点监控系统获取待测图像时预置点人工布设复杂、困难的问题,确定了目标相对摄像机的位置,提高了在检测后人工核对目标的效率,实现了定点视频监控的闭环检测。
-
公开(公告)号:CN110296687A
公开(公告)日:2019-10-01
申请号:CN201910495518.X
申请日:2019-06-10
Applicant: 东南大学
Abstract: 本发明公开了一种基于定点视频监控中预置点最优布设的目标定位方法,包括如下步骤:S1:确定出监控场地中监控设备在每个监控圈中所对应的垂直倾角;S2:根据监控圈的垂直视场角和水平视场角,获取每个监控圈视场所对应的地面面积,确定出监控场地中每个监控圈中所有的监控预置点;S3:将每个监控预置点对应的垂直视场角、水平视场角和垂直倾角进行编号,并存储在预置点信息库中;S4:通过预置点信息库,确定出监控目标在监控场地中的具体位置。本发明解决了利用定点监控系统获取待测图像时预置点人工布设复杂、困难的问题,确定了目标相对摄像机的位置,提高了在检测后人工核对目标的效率,实现了定点视频监控的闭环检测。
-
公开(公告)号:CN109766924A
公开(公告)日:2019-05-17
申请号:CN201811561702.1
申请日:2018-12-20
Applicant: 东南大学
Abstract: 本发明公开了一种基于图像信息熵与自适应阈值DAISY特征点的图像检测方法。由于常见图像检测算法会出现特征点分布不均匀且在局部区域稀少的问题,导致后续重建中点云会出现空洞现象。本发明首先通过统计分析确定了图像信息熵与SIFT特征点密度的约束关系;其次提出了一种基于图像信息熵的自适应阈值SIFT特征检测器,解决了特征点分布不均的问题;然后针对SIFT特征点在非极值特征点处可靠性降低,提出采用改进的DAISY特征点,提高了特征点的可靠性;最后将自适应阈值检测器中的特征点替换为DAISY特征点,并用于图像检测。实验表明本发明提出的方法在保证了特征点较高的可靠性,且改善了特征点分布,达到了预期目标。
-
公开(公告)号:CN109165680A
公开(公告)日:2019-01-08
申请号:CN201810860165.4
申请日:2018-08-01
Applicant: 东南大学
Abstract: 本发明公开了一种基于视觉SLAM的室内场景下单一目标物体字典模型改进方法:对于进行视觉SLAM的单目或双目相机进行基础标定,获得内参信息后对环境进行检测和前端同步定位与建图,得到点云地图;根据周边环境与单一目标物体相关特征制作图片数据集,利用DBoW2库k-means++算法生成数据集对应的单词;进行TF-IDF相似度计算划分单词权值,设定阈值,进行归零化处理,得到单一目标物体字典改进模型;将该改进模型结合到SLAM系统的后端优化中,通过对点云地图点在图像帧上的投影与实际像素坐标进行最小化投影误差。本发明优化了在室内场景下对于单一目标物体的回环检测的发现与点云地图的闭环融合,为一些类别环境下特定单一目标物体的同步定位与建图提供了较大的便利。
-
公开(公告)号:CN109101981A
公开(公告)日:2018-12-28
申请号:CN201810797155.0
申请日:2018-07-19
Applicant: 东南大学
Abstract: 本发明公开了一种街景场景下基于全局图像条纹码的回环检测方法,包括如下步骤:对已有地图的所有图像帧进行编码,并将编码存储在分层数据结构中;对新采集到的关键帧也进行二进制编码,与已有的二进制描述码进行对比,获取汉明距离最小的前K张图片;将K张图片与新采集的图像关键帧一起进行特征点提取比对操作,比对两个图像间的特征相似度,得到分值最高的图,以此获知此时机器人的位置。本发明只需要对图像进行简单的编码,利用已有的算法对编码进行匹配即能完成目的,可操作性高;不需要借助图像的特征点以及提前进行提前训练,减小了计算量;与传统方法相比,解决了不能进行回环检测、工作强度大、效率低等问题。
-
公开(公告)号:CN108648240A
公开(公告)日:2018-10-12
申请号:CN201810447021.6
申请日:2018-05-11
Applicant: 东南大学
Abstract: 本发明公开了一种基于点云特征地图配准的无重叠视场相机姿态标定方法,包括如下步骤:(1)对无重叠视场的多个相机进行基础标定,获得内参;(2)利用多个相机对环境进行检测并同步定位与建图,构建点云地图并提取关键帧解算相机的位姿矩阵;(3)从一个相机的关键帧中抽取图像帧,与其他相机关键帧进行相似性检测,构建匹配帧对集合和匹配点对集合,对点云地图点在图像帧上的投影与实际像素坐标进行最小化投影误差;(4)通过对匹配帧附近的帧进行特征匹配,融合所有特征点,进行全局优化,迭代求解相对位姿矩阵;根据实际情况选取修正参数,对相机进行最终姿态标定;本发明解决了传统标定方法标定工作强度大,工作效率低且精度不高的问题。
-
-
-
-
-
-
-