-
公开(公告)号:CN118474490A
公开(公告)日:2024-08-09
申请号:CN202410558224.8
申请日:2024-05-08
Applicant: 湖南大学
IPC: H04N23/50 , G06Q10/0639 , F16M11/42 , F16M11/28 , F16M11/10 , F16M11/16 , H04N23/695 , H04N23/62 , H04N23/66 , H04N23/56 , H04N7/18
Abstract: 本发明公开了一种基于数据分析的手术机器人执行质量评估系统,包括底座和主箱体,所述底座的底部转动连接有多个万向自锁轮,所述底座的顶部通过第一气缸连接有支撑板,所述底座的顶部设有对称设置的多个支撑槽,所述支撑槽内固定连接有与支撑板对应的支撑机构,所述支撑板的顶部通过转杆与主箱体转动连接,所述转杆的一端固定连接有旋钮,旋钮上滑动插设有卡紧机构,主箱体的外壁上环绕设有与卡紧机构对应的多个卡槽。本发明通过可调式数据采集机构的设置,该机构带有优化控制功能以确保数据采集的准确性和完整性,可以全面准确地对机器人手术数据进行采集。这种控制机制确保了评估系统的数据采集效率,从而有效提升了评估系统的结果准确性。
-
公开(公告)号:CN119359940B
公开(公告)日:2025-03-21
申请号:CN202411943944.2
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T17/00 , G06V10/24 , G06V10/44 , G06V10/74 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及机器人视觉感知技术领域,具体为一种基于交叉通道注意力机制特征融合的三维场景重建方法,包括:S1、收集多张畸变校正与立体校正后待立体视觉三维重建的双目立体视觉图像,并构建训练集;S2、构建三维场景重建网络;S3、选取一张双目立体视觉图像输入到三维场景重建网络中,得到每个不同阶段的预测视差;S4、构建损失函数,计算每个不同阶段的预测视差与真实视差之间的损失,并循环S3至S4,直至损失函数收敛;然后对三维场景重建网络的权重进行更新;S5、对训练后的三维场景重建网络进行测试,得到双目立体视觉三维重建场景的三维深度信息。本发明大幅度提高了上下文特征融合效率,提升了双目立体视觉视差估计性能。
-
公开(公告)号:CN117982224A
公开(公告)日:2024-05-07
申请号:CN202410129056.0
申请日:2024-01-31
Applicant: 湖南大学
Abstract: 本发明公开了一种适用于手术机器人的耗能智能管控系统,通过控制调节机构的设置,提升了耗能管控终端的安装使用便捷性。为了使得手术机器人在运行过程中能够实现高效的能量使用,本发明还集成了一种能耗管理优化算法。该算法能够根据机器人各部件的实时功率需求,预测能量需求,并动态调整电机和气缸的工作状态,确保在手术过程中优化能源消耗,同时确保机器人操作的稳定性和精确性,算法还能够实时监控手术机器人的操作反馈,并根据历史数据不断优化能耗管理策略。通过结合调节机构和能耗管理优化算法,不仅提供了机器人的灵活调节能力,还确保了其在复杂手术环境中的高效和稳定运行,从而大大提升了耗能管控终端的安装使用便捷性和经济性。
-
公开(公告)号:CN119359939B
公开(公告)日:2025-03-21
申请号:CN202411943433.0
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T17/00 , G06T7/80 , G06T7/13 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种多视角特征引导的大范围场景三维建模方法及系统,获取多个视角相机的图像,并输入至多视角立体视觉三维重建神经网络模型中,模型包括多阶段上下文特征提取模块、多视角图像匹配代价构建模块、多视角匹配代价特征聚合网络和视差回归预测模块,通过多视角图像交叉特征迁移互相关匹配代价构建方法构建多视角匹配代价,通过可微分的多视角联合特征引导的各项异性扩散代价聚合方法聚合多视角匹配代价特征,结合损失函数对神经网络模型进行训练,提升多视角三维场景重建性能和深度估计精度。通过训练构建好的多视角立体视觉三维重建神经网络模型,对多视角视频图像进行推理,并实现大范围制造场景动态三维重建。
-
公开(公告)号:CN119359940A
公开(公告)日:2025-01-24
申请号:CN202411943944.2
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T17/00 , G06V10/24 , G06V10/44 , G06V10/74 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及机器人视觉感知技术领域,具体为一种基于交叉通道注意力机制特征融合的三维场景重建方法,包括:S1、收集多张畸变校正与立体校正后待立体视觉三维重建的双目立体视觉图像,并构建训练集;S2、构建三维场景重建网络;S3、选取一张双目立体视觉图像输入到三维场景重建网络中,得到每个不同阶段的预测视差;S4、构建损失函数,计算每个不同阶段的预测视差与真实视差之间的损失,并循环S3至S4,直至损失函数收敛;然后对三维场景重建网络的权重进行更新;S5、对训练后的三维场景重建网络进行测试,得到双目立体视觉三维重建场景的三维深度信息。本发明大幅度提高了上下文特征融合效率,提升了双目立体视觉视差估计性能。
-
公开(公告)号:CN119359939A
公开(公告)日:2025-01-24
申请号:CN202411943433.0
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T17/00 , G06T7/80 , G06T7/13 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种多视角特征引导的大范围场景三维建模方法及系统,获取多个视角相机的图像,并输入至多视角立体视觉三维重建神经网络模型中,模型包括多阶段上下文特征提取模块、多视角图像匹配代价构建模块、多视角匹配代价特征聚合网络和视差回归预测模块,通过多视角图像交叉特征迁移互相关匹配代价构建方法构建多视角匹配代价,通过可微分的多视角联合特征引导的各项异性扩散代价聚合方法聚合多视角匹配代价特征,结合损失函数对神经网络模型进行训练,提升多视角三维场景重建性能和深度估计精度。通过训练构建好的多视角立体视觉三维重建神经网络模型,对多视角视频图像进行推理,并实现大范围制造场景动态三维重建。
-
-
-
-
-