-
公开(公告)号:CN111846163B
公开(公告)日:2023-03-31
申请号:CN201910336140.9
申请日:2019-04-24
Applicant: 湖南大学
Abstract: 本发明提出了一种观察舱和环肋组件,所述观察舱包括多个连接在一起的载人舱室,多个载人舱室通过环肋组件连接在一起;环肋组件包括环肋主体,所述环肋主体面向载人舱室的一面开设有用于卡置载人舱室的卡置槽,所述载人舱室包括可卡置在卡置槽的卡置凸台;所述环肋主体沿其径向方向开设有穿设所述卡置槽的第一通孔,用于安装将环肋主体与载人舱室固定在一起的安装件;所述载人舱室的卡置凸台上开设有与所述第一通过配合的第二通孔;所述环肋组件还包括设置在与卡置槽同一面的吸附盘,用以借助吸附盘的吸力将环肋主体吸附在载人舱室上。本发明不同的载人舱室之间通过此环肋组件稳固地连接在一起,提高了不同载人舱室之间的连接稳固性。
-
公开(公告)号:CN119359940B
公开(公告)日:2025-03-21
申请号:CN202411943944.2
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T17/00 , G06V10/24 , G06V10/44 , G06V10/74 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及机器人视觉感知技术领域,具体为一种基于交叉通道注意力机制特征融合的三维场景重建方法,包括:S1、收集多张畸变校正与立体校正后待立体视觉三维重建的双目立体视觉图像,并构建训练集;S2、构建三维场景重建网络;S3、选取一张双目立体视觉图像输入到三维场景重建网络中,得到每个不同阶段的预测视差;S4、构建损失函数,计算每个不同阶段的预测视差与真实视差之间的损失,并循环S3至S4,直至损失函数收敛;然后对三维场景重建网络的权重进行更新;S5、对训练后的三维场景重建网络进行测试,得到双目立体视觉三维重建场景的三维深度信息。本发明大幅度提高了上下文特征融合效率,提升了双目立体视觉视差估计性能。
-
公开(公告)号:CN114693274B
公开(公告)日:2025-02-18
申请号:CN202210385203.1
申请日:2022-04-13
Applicant: 湖南大学
Abstract: 本发明属于文物建筑遗产保护领域,具体涉及一种文物建筑属性信息层级化采集方法,包括如下步骤:S1:获取待信息采集的文物建筑的名称;S2:根据所述文物建筑的名称查找得到预先设定的信息采集策略,确定采集等级;S3:基于所述采集等级确定采集内容;S4:按照所述采集内容对该文物建筑的信息进行采集并存档。通过依照预先设定的采集策略对文物建筑的信息进行采集,避免了文物建筑普查工作中得到的数据冗杂繁乱,提高信息采集效率,合理、有效的对文物建筑属性信息进行数据采集,从而为文物建筑的后续的修缮、修复、维护、全生命周期的运行、BIM及CIM大数据平台的管理提供合理的数据支持,适用于文物建筑数字化信息采集。
-
公开(公告)号:CN119359939A
公开(公告)日:2025-01-24
申请号:CN202411943433.0
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T17/00 , G06T7/80 , G06T7/13 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种多视角特征引导的大范围场景三维建模方法及系统,获取多个视角相机的图像,并输入至多视角立体视觉三维重建神经网络模型中,模型包括多阶段上下文特征提取模块、多视角图像匹配代价构建模块、多视角匹配代价特征聚合网络和视差回归预测模块,通过多视角图像交叉特征迁移互相关匹配代价构建方法构建多视角匹配代价,通过可微分的多视角联合特征引导的各项异性扩散代价聚合方法聚合多视角匹配代价特征,结合损失函数对神经网络模型进行训练,提升多视角三维场景重建性能和深度估计精度。通过训练构建好的多视角立体视觉三维重建神经网络模型,对多视角视频图像进行推理,并实现大范围制造场景动态三维重建。
-
公开(公告)号:CN111846163A
公开(公告)日:2020-10-30
申请号:CN201910336140.9
申请日:2019-04-24
Applicant: 湖南大学
Abstract: 本发明提出了一种观察舱和环肋组件,所述观察舱包括多个连接在一起的载人舱室,多个载人舱室通过环肋组件连接在一起;环肋组件包括环肋主体,所述环肋主体面向载人舱室的一面开设有用于卡置载人舱室的卡置槽,所述载人舱室包括可卡置在卡置槽的卡置凸台;所述环肋主体沿其径向方向开设有穿设所述卡置槽的第一通孔,用于安装将环肋主体与载人舱室固定在一起的安装件;所述载人舱室的卡置凸台上开设有与所述第一通过配合的第二通孔;所述环肋组件还包括设置在与卡置槽同一面的吸附盘,用以借助吸附盘的吸力将环肋主体吸附在载人舱室上。本发明不同的载人舱室之间通过此环肋组件稳固地连接在一起,提高了不同载人舱室之间的连接稳固性。
-
公开(公告)号:CN119359939B
公开(公告)日:2025-03-21
申请号:CN202411943433.0
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T17/00 , G06T7/80 , G06T7/13 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种多视角特征引导的大范围场景三维建模方法及系统,获取多个视角相机的图像,并输入至多视角立体视觉三维重建神经网络模型中,模型包括多阶段上下文特征提取模块、多视角图像匹配代价构建模块、多视角匹配代价特征聚合网络和视差回归预测模块,通过多视角图像交叉特征迁移互相关匹配代价构建方法构建多视角匹配代价,通过可微分的多视角联合特征引导的各项异性扩散代价聚合方法聚合多视角匹配代价特征,结合损失函数对神经网络模型进行训练,提升多视角三维场景重建性能和深度估计精度。通过训练构建好的多视角立体视觉三维重建神经网络模型,对多视角视频图像进行推理,并实现大范围制造场景动态三维重建。
-
公开(公告)号:CN119359940A
公开(公告)日:2025-01-24
申请号:CN202411943944.2
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T17/00 , G06V10/24 , G06V10/44 , G06V10/74 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及机器人视觉感知技术领域,具体为一种基于交叉通道注意力机制特征融合的三维场景重建方法,包括:S1、收集多张畸变校正与立体校正后待立体视觉三维重建的双目立体视觉图像,并构建训练集;S2、构建三维场景重建网络;S3、选取一张双目立体视觉图像输入到三维场景重建网络中,得到每个不同阶段的预测视差;S4、构建损失函数,计算每个不同阶段的预测视差与真实视差之间的损失,并循环S3至S4,直至损失函数收敛;然后对三维场景重建网络的权重进行更新;S5、对训练后的三维场景重建网络进行测试,得到双目立体视觉三维重建场景的三维深度信息。本发明大幅度提高了上下文特征融合效率,提升了双目立体视觉视差估计性能。
-
公开(公告)号:CN114693274A
公开(公告)日:2022-07-01
申请号:CN202210385203.1
申请日:2022-04-13
Applicant: 湖南大学
Abstract: 本发明属于文物建筑遗产保护领域,具体涉及一种文物建筑属性信息层级化采集方法,包括如下步骤:S1:获取待信息采集的文物建筑的名称;S2:根据所述文物建筑的名称查找得到预先设定的信息采集策略,确定采集等级;S3:基于所述采集等级确定采集内容;S4:按照所述采集内容对该文物建筑的信息进行采集并存档。通过依照预先设定的采集策略对文物建筑的信息进行采集,避免了文物建筑普查工作中得到的数据冗杂繁乱,提高信息采集效率,合理、有效的对文物建筑属性信息进行数据采集,从而为文物建筑的后续的修缮、修复、维护、全生命周期的运行、BIM及CIM大数据平台的管理提供合理的数据支持,适用于文物建筑数字化信息采集。
-
-
-
-
-
-
-