-
公开(公告)号:CN120088403A
公开(公告)日:2025-06-03
申请号:CN202510155379.1
申请日:2025-02-12
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于场景三维重建技术领域,公开了一种基于相机激光雷达融合的场景三维重建方法及相关装置;其中,所述场景三维重建方法包括:先基于选中的场景,获取相机和激光雷达之间的相对姿态以及场景的相机图像、激光雷达点云传感器数据;然后基于3DGS依次进行传感器跟踪、地图更新和回环检测,获得场景三维重建结果;其中,在传感器跟踪阶段,通过最小化光度损失和几何损失进行位姿优化;在地图更新阶段,将满足预设条件的激光雷达点云加入到高斯点云地图中。本发明提供的技术方案,在强烈的光照变化和无纹理区域等环境下进行场景三维重建,能够实现准确的姿态估计和高质量的图像渲染。
-
公开(公告)号:CN117934524A
公开(公告)日:2024-04-26
申请号:CN202311753244.2
申请日:2023-12-19
Applicant: 中国科学院自动化研究所
IPC: G06T7/13 , G06T5/50 , G06N3/0499 , G06N3/045 , G06N3/044 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明提供一种建筑物轮廓提取方法及装置,所述方法包括:获取建筑物卫星图像;将建筑物卫星图像输入至建筑物指针网络BPN,得到BPN输出的建筑物轮廓;其中,BPN包括角点检测模块与角点顺序预测模块,角点检测模块用于基于DETR神经网络从建筑物卫星图像中提取出候选顶点;角点顺序预测模块用于将候选顶点与建筑物卫星图像的多尺寸特征图像融合,作为RNN神经网络的输入序列;基于输入序列的注意力机制,从候选顶点中选出目标顶点,构建出建筑物轮廓,如此使用BPN实现了更泛化能力地提取建筑物轮廓。
-
公开(公告)号:CN118411396B
公开(公告)日:2025-03-21
申请号:CN202410454513.3
申请日:2024-04-16
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种深度补全方法、装置、电子设备及存储介质,应用于数据处理技术领域。该方法包括:获取RGB图像、稀疏深度图以及相机内参矩阵;对所述稀疏深度图进行法相估计处理,得到稀疏法向图;通过深度补全网络对所述RGB图像、所述稀疏深度图、所述相机内参矩阵以及所述稀疏法向图进行融合编码处理得到深度编码,并对所述深度编码进行解码处理,得到稠密深度图;其中,所述稠密深度图的图像稠密度高于所述稀疏深度图的图像稠密度。
-
公开(公告)号:CN118397171A
公开(公告)日:2024-07-26
申请号:CN202410359798.2
申请日:2024-03-27
Applicant: 中国科学院自动化研究所
IPC: G06T17/00 , G06V10/74 , G06V10/762
Abstract: 本发明涉及三维重建技术领域,提供一种三维线段重建方法、装置、电子设备及存储介质,将图像集中所有二维线段对应的所有最佳三维线段建议选择问题建模成0‑1规划问题,0‑1规划问题中任一图像中任一二维线段的任一三维线段建议对应的一致性得分函数基于该三维线段建议与该图像中所有邻域图像的最大相似性得分之和确定;该三维线段建议与该图像中某个邻域图像的最大相似性得分是指:三维线段建议与该邻域图像中与该二维线段匹配的所有二维线段的最佳三维线段建议之间的相似性得分的最大值。利用所有二维线段的最佳三维线段建议计算三维线段建议的一致性得分,可以增强二维支撑线段与三维线段建议之间的支撑关系,准确构建目标三维线段地图。
-
公开(公告)号:CN118411396A
公开(公告)日:2024-07-30
申请号:CN202410454513.3
申请日:2024-04-16
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种深度补全方法、装置、电子设备及存储介质,应用于数据处理技术领域。该方法包括:获取RGB图像、稀疏深度图以及相机内参矩阵;对所述稀疏深度图进行法相估计处理,得到稀疏法向图;通过深度补全网络对所述RGB图像、所述稀疏深度图、所述相机内参矩阵以及所述稀疏法向图进行融合编码处理得到深度编码,并对所述深度编码进行解码处理,得到稠密深度图;其中,所述稠密深度图的图像稠密度高于所述稀疏深度图的图像稠密度。
-
公开(公告)号:CN118379350A
公开(公告)日:2024-07-23
申请号:CN202410464459.0
申请日:2024-04-17
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及三维视觉技术领域,提供一种相机全局平移估计方法、装置、设备和介质,包括:基于特征匹配的视角差应用于迭代重加权最小二乘法,优化相机之间的相对平移;过滤掉错误的特征匹配,基于过滤后的特征匹配构建特征轨迹;从特征轨迹中筛选特征轨迹构建场景轨迹图;构建相机之间的第一约束以及相机与三维点的之间的第二约束;基于第一约束与第二约束应用于叉积算法与L1范数,构建第一目标函数,求解第一目标函数,得到相机之间的相对平移与三维点的位置;构建基于角度的第二目标函数,得到优化后的相机之间的相对平移与三维点的位置。本发明提高了相机近似共线运动等低视差场景中的估计准确性与鲁棒性。
-
公开(公告)号:CN104200523A
公开(公告)日:2014-12-10
申请号:CN201410460622.2
申请日:2014-09-11
Applicant: 中国科学院自动化研究所
IPC: G06T17/00
Abstract: 一种融合附加信息的大场景三维重建方法,包括:提取所有图像的SIFT点,进行图像匹配,构建外极几何图,得到对应于所有三维场景点的轨迹;根据惯性测量单元信息或者指南针角度得到每幅图像的初始摄像头旋转矩阵,迭代地搜寻外极几何图中当前可靠的连接边,并利用这些边进行全局优化;初始化摄像头的中心为对应图像的GPS,根据图像初始焦距信息,旋转矩阵和摄像头中心位置得到每幅图像的初始投影矩阵,根据这些投影矩阵和三维场景点轨迹迭代地三角化和捆绑调整。本发明方法计算迅速,得到的三维场景合理可靠,对图像误匹配敏感度低,泛化性能强,对有序和无序图像集都适用。
-
公开(公告)号:CN118864558A
公开(公告)日:2024-10-29
申请号:CN202410590879.3
申请日:2024-05-13
Applicant: 中国科学院自动化研究所
IPC: G06T7/55 , G06V10/44 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/045 , G06N3/088
Abstract: 本申请提供一种深度补全方法、装置、电子设备及存储介质,应用于数据处理技术领域。该方法包括:获取RGB图像、稀疏深度图以及所述稀疏深度图的稀疏法向图;通过将所述RGB图像输入Transformer模型得到第一稠密深度图与第一置信度图,通过将所述稀疏深度图输入所述Transformer模型得到第二稠密深度图与第二置信度图,通过将所述稀疏法向图输入所述Transformer模型得到第三稠密深度图与第三置信度图;通过对所述第一稠密深度图、所述第一置信度图、所述第二稠密深度图、所述第二置信度图、所述第三稠密深度图以及所述第三置信度图进行融合处理,得到目标稠密深度图。
-
公开(公告)号:CN111768498A
公开(公告)日:2020-10-13
申请号:CN202010654932.3
申请日:2020-07-09
Applicant: 中国科学院自动化研究所
IPC: G06T17/00 , G06F16/583
Abstract: 本发明属于视觉定位领域,具体涉及一种基于稠密语义三维地图与混合特征的视觉定位方法、系统,旨在为了解决解决在较大的外观变化或者拍照条件变化下现有视觉定位方法鲁棒性和精确度较低的问题。本发明方法包括:获取目标场景的稠密三维模型、稠密语义三维模型;获取查询图像的多个候选检索图像;获取查询图像,与各候选检索图像、稠密三维模型的匹配关系;基于匹配关系估计临时位姿,投影所有可见的带有语义的三维点到查询图像上,并统计三维点和查询图像上的二维投影点语义标签一致的数量作为语义一致性得分,通过基于权重RANSAC的位姿计算方法获取最终定位信息。本发明提高了视频定位的鲁棒性和精确度。
-
公开(公告)号:CN104200523B
公开(公告)日:2017-09-26
申请号:CN201410460622.2
申请日:2014-09-11
Applicant: 中国科学院自动化研究所
IPC: G06T17/00
Abstract: 一种融合附加信息的大场景三维重建方法,包括:提取所有图像的SIFT点,进行图像匹配,构建外极几何图,得到对应于所有三维场景点的轨迹;根据惯性测量单元信息或者指南针角度得到每幅图像的初始摄像头旋转矩阵,迭代地搜寻外极几何图中当前可靠的连接边,并利用这些边进行全局优化;初始化摄像头的中心为对应图像的GPS,根据图像初始焦距信息,旋转矩阵和摄像头中心位置得到每幅图像的初始投影矩阵,根据这些投影矩阵和三维场景点轨迹迭代地三角化和捆绑调整。本发明方法计算迅速,得到的三维场景合理可靠,对图像误匹配敏感度低,泛化性能强,对有序和无序图像集都适用。
-
-
-
-
-
-
-
-
-