一种多视角特征引导的大范围场景三维建模方法及系统

    公开(公告)号:CN119359939B

    公开(公告)日:2025-03-21

    申请号:CN202411943433.0

    申请日:2024-12-27

    Applicant: 湖南大学

    Abstract: 本发明公开了一种多视角特征引导的大范围场景三维建模方法及系统,获取多个视角相机的图像,并输入至多视角立体视觉三维重建神经网络模型中,模型包括多阶段上下文特征提取模块、多视角图像匹配代价构建模块、多视角匹配代价特征聚合网络和视差回归预测模块,通过多视角图像交叉特征迁移互相关匹配代价构建方法构建多视角匹配代价,通过可微分的多视角联合特征引导的各项异性扩散代价聚合方法聚合多视角匹配代价特征,结合损失函数对神经网络模型进行训练,提升多视角三维场景重建性能和深度估计精度。通过训练构建好的多视角立体视觉三维重建神经网络模型,对多视角视频图像进行推理,并实现大范围制造场景动态三维重建。

    一种空地协同建筑测绘机器人系统及其测绘方法

    公开(公告)号:CN112461210B

    公开(公告)日:2021-12-24

    申请号:CN202011498963.0

    申请日:2020-12-18

    Applicant: 湖南大学

    Abstract: 本发明公开了一种空地协同建筑测绘机器人系统及其测绘方法,包括空中无人机、地面移动机器人和服务器终端,空中无人机携带有第一激光雷达、第一IMU、双目鱼眼相机、第一彩色相机、第一处理器,通过空中无人机建立建筑物基于其顶面及高处立面的第一局部点云模型;地面移动机器人携带有第二激光雷达、第二IMU、第二彩色相机、第二处理器,通过地面移动机器人建立建筑物基于其底部的第二局部点云模型;服务器终端通过无线通讯模块分别与空中无人机和地面移动机器人连接,在服务器终端完成第一局部点云模型和第二局部点云模型的融合,生成完整的建筑物点云模型。本发明在提高建模完整性的同时,还具有精度准、效率高的优点。

    一种多视角特征引导的大范围场景三维建模方法及系统

    公开(公告)号:CN119359939A

    公开(公告)日:2025-01-24

    申请号:CN202411943433.0

    申请日:2024-12-27

    Applicant: 湖南大学

    Abstract: 本发明公开了一种多视角特征引导的大范围场景三维建模方法及系统,获取多个视角相机的图像,并输入至多视角立体视觉三维重建神经网络模型中,模型包括多阶段上下文特征提取模块、多视角图像匹配代价构建模块、多视角匹配代价特征聚合网络和视差回归预测模块,通过多视角图像交叉特征迁移互相关匹配代价构建方法构建多视角匹配代价,通过可微分的多视角联合特征引导的各项异性扩散代价聚合方法聚合多视角匹配代价特征,结合损失函数对神经网络模型进行训练,提升多视角三维场景重建性能和深度估计精度。通过训练构建好的多视角立体视觉三维重建神经网络模型,对多视角视频图像进行推理,并实现大范围制造场景动态三维重建。

    一种空地协同建筑测绘机器人系统及其测绘方法

    公开(公告)号:CN112461210A

    公开(公告)日:2021-03-09

    申请号:CN202011498963.0

    申请日:2020-12-18

    Applicant: 湖南大学

    Abstract: 本发明公开了一种空地协同建筑测绘机器人系统及其测绘方法,包括空中无人机、地面移动机器人和服务器终端,空中无人机携带有第一激光雷达、第一IMU、双目鱼眼相机、第一彩色相机、第一处理器,通过空中无人机建立建筑物基于其顶面及高处立面的第一局部点云模型;地面移动机器人携带有第二激光雷达、第二IMU、第二彩色相机、第二处理器,通过地面移动机器人建立建筑物基于其底部的第二局部点云模型;服务器终端通过无线通讯模块分别与空中无人机和地面移动机器人连接,在服务器终端完成第一局部点云模型和第二局部点云模型的融合,生成完整的建筑物点云模型。本发明在提高建模完整性的同时,还具有精度准、效率高的优点。

    一种大范围制造场景立体重建方法及系统

    公开(公告)号:CN119919594A

    公开(公告)日:2025-05-02

    申请号:CN202510398646.8

    申请日:2025-04-01

    Applicant: 湖南大学

    Abstract: 本发明公开了一种大范围制造场景立体重建方法及系统,首先搭建场景重建模型并训练,获取大范围制造场景下的待处理图像对并输入训练后的场景重建模型,场景重建模型的一元特征提取与增强模块接收输入图像对并进行特征提取与增强处理,将增强后的一元特征输入成本体积构建模块处理,输出联合体积,3D聚合模块接收联合体积并逐层优化,输出优化后的成本体积,视差预测模块获取优化后的成本体积并处理,输出待处理图像对对应的预测视差图,将预测视差图转化为真实世界下的三维空间数据,由此完成制造场景立体重建。该方法及系统不仅适用于具有复杂结构的大规模制造场景,还能够以高精度还原场景的空间细节。

    一种基于视觉编码器的古建筑图像自适应风格迁移方法

    公开(公告)号:CN116309022A

    公开(公告)日:2023-06-23

    申请号:CN202310216506.5

    申请日:2023-03-08

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于视觉编码器的古建筑图像自适应风格迁移方法,基于视觉编码‑解码风格迁移神经网络,在特征编码器阶段,获得建筑图像多阶段相对位置编码特征,再设计自适应颜色与结构特征迁移融合模块,对提取的建筑内容特征与建筑风格特征进行多阶段多尺度融合,自适应颜色与结构特征迁移融合模块采用多种风格特征迁移方法进行特征迁移融合;接着在特征解码器阶段,对建筑内容特征与建筑风格特征进一步迁移与融合。该模型对古建筑风格迁移测试集进行预测,大幅度提高了风格迁移估计精度,解决了建筑场景描绘精细化、形态规范化、纹理色彩标准化等问题,实现建筑遗产空间叙事再现。

Patent Agency Ranking