融合航拍与地面视角图像的场景建模方法、系统、装置

    公开(公告)号:CN110223380A

    公开(公告)日:2019-09-10

    申请号:CN201910502762.4

    申请日:2019-06-11

    Abstract: 本发明属于场景建模领域,具体涉及一种融合航拍与地面视角图像的场景建模方法、系统、装置,旨在为了解决针对室内场景结构复杂、纹理缺乏,基于图像的建模结果不完整、不精确融合的问题。本发明方法包括:S100,获取待建模的室内场景的航拍视角图像,并构建航拍地图;S200,基于所述航拍地图,通过由航拍地图合成地面视角参考图像的方法,获取合成图像;S300,通过地面相机采集的地面视角图像,获取地面视角图像集合;S400,基于所述合成图像,将所述航拍视角图像与所述地面视角图像进行融合,获取室内场景模型。本发明可以生成完整、精确的室内场景模型,兼顾采集效率与重建精度,并且具有较强的鲁棒性。

    融合图像与激光数据的场景建模方法、系统、装置

    公开(公告)号:CN110223389B

    公开(公告)日:2021-05-04

    申请号:CN201910502755.4

    申请日:2019-06-11

    Abstract: 本发明属于场景建模领域,具体涉及一种融合图像与激光数据的场景建模方法、系统、装置,旨在为了解决现有大规模场景建模技术中无法兼顾精度、灵活度的问题。本发明方法首先对场景进行图像采集并建模,基于图像建模结果,综合考虑场景结构复杂程度、纹理丰富程度以及扫描位置分布情况,自动规划激光扫描位置。之后,该方法通过激光点云投影合成图像,并与采集图像进行匹配。基于获取的图像与激光数据之间的跨数据类型特征匹配,采用由粗到细的流程,实现图像与激光数据的融合。本发明兼顾数据采集效率以及重建精度与完整性,可生成精确、完整的场景重建结果。

    基于主动学习的摄影测量网格的三维语义标注方法

    公开(公告)号:CN111968240A

    公开(公告)日:2020-11-20

    申请号:CN202010919006.4

    申请日:2020-09-04

    Abstract: 本发明属于计算机视觉领域,具体涉及一种基于主动学习的摄影测量网格的三维语义标注方法、系统、装置,旨在解决三维语义标注方法标注鲁棒性较差的问题。本发明方法包括:获取待标注的城市街景图像;获取各图像的语义分割结果;将语义分割结果反投影到三维网格模型上得到初始三维语义网络模型;对初始三维语义网络模型进行融合;对迭代次数、面片类别标签不一致数量与总数量的比值进行判断;获取各图像的不确定度;构建新的图像集,计算新构建的图像集的整体不确定度、离散度并进行加权,将加权平均最小值对应的图像集作为第t图像集;若t达到阈值,对语义分割网络进行更新;得到标注好的三维语义网络模型。本发明提高了三维语义标注的鲁棒性。

    融合图像与激光数据的场景建模方法、系统、装置

    公开(公告)号:CN110223389A

    公开(公告)日:2019-09-10

    申请号:CN201910502755.4

    申请日:2019-06-11

    Abstract: 本发明属于场景建模领域,具体涉及一种融合图像与激光数据的场景建模方法、系统、装置,旨在为了解决现有大规模场景建模技术中无法兼顾精度、灵活度的问题。本发明方法首先对场景进行图像采集并建模,基于图像建模结果,综合考虑场景结构复杂程度、纹理丰富程度以及扫描位置分布情况,自动规划激光扫描位置。之后,该方法通过激光点云投影合成图像,并与采集图像进行匹配。基于获取的图像与激光数据之间的跨数据类型特征匹配,采用由粗到细的流程,实现图像与激光数据的融合。本发明兼顾数据采集效率以及重建精度与完整性,可生成精确、完整的场景重建结果。

    融合航拍与地面视角图像的场景建模方法、系统、装置

    公开(公告)号:CN110223380B

    公开(公告)日:2021-04-23

    申请号:CN201910502762.4

    申请日:2019-06-11

    Abstract: 本发明属于场景建模领域,具体涉及一种融合航拍与地面视角图像的场景建模方法、系统、装置,旨在为了解决针对室内场景结构复杂、纹理缺乏,基于图像的建模结果不完整、不精确融合的问题。本发明方法包括:S100,获取待建模的室内场景的航拍视角图像,并构建航拍地图;S200,基于所述航拍地图,通过由航拍地图合成地面视角参考图像的方法,获取合成图像;S300,通过地面相机采集的地面视角图像,获取地面视角图像集合;S400,基于所述合成图像,将所述航拍视角图像与所述地面视角图像进行融合,获取室内场景模型。本发明可以生成完整、精确的室内场景模型,兼顾采集效率与重建精度,并且具有较强的鲁棒性。

    基于稠密语义三维地图与混合特征的视觉定位方法、系统

    公开(公告)号:CN111768498A

    公开(公告)日:2020-10-13

    申请号:CN202010654932.3

    申请日:2020-07-09

    Abstract: 本发明属于视觉定位领域,具体涉及一种基于稠密语义三维地图与混合特征的视觉定位方法、系统,旨在为了解决解决在较大的外观变化或者拍照条件变化下现有视觉定位方法鲁棒性和精确度较低的问题。本发明方法包括:获取目标场景的稠密三维模型、稠密语义三维模型;获取查询图像的多个候选检索图像;获取查询图像,与各候选检索图像、稠密三维模型的匹配关系;基于匹配关系估计临时位姿,投影所有可见的带有语义的三维点到查询图像上,并统计三维点和查询图像上的二维投影点语义标签一致的数量作为语义一致性得分,通过基于权重RANSAC的位姿计算方法获取最终定位信息。本发明提高了视频定位的鲁棒性和精确度。

Patent Agency Ranking