一种多视角特征引导的大范围场景三维建模方法及系统

    公开(公告)号:CN119359939B

    公开(公告)日:2025-03-21

    申请号:CN202411943433.0

    申请日:2024-12-27

    Applicant: 湖南大学

    Abstract: 本发明公开了一种多视角特征引导的大范围场景三维建模方法及系统,获取多个视角相机的图像,并输入至多视角立体视觉三维重建神经网络模型中,模型包括多阶段上下文特征提取模块、多视角图像匹配代价构建模块、多视角匹配代价特征聚合网络和视差回归预测模块,通过多视角图像交叉特征迁移互相关匹配代价构建方法构建多视角匹配代价,通过可微分的多视角联合特征引导的各项异性扩散代价聚合方法聚合多视角匹配代价特征,结合损失函数对神经网络模型进行训练,提升多视角三维场景重建性能和深度估计精度。通过训练构建好的多视角立体视觉三维重建神经网络模型,对多视角视频图像进行推理,并实现大范围制造场景动态三维重建。

    基于三维高斯泼溅的大型装配场景的动态实时渲染方法

    公开(公告)号:CN119229031B

    公开(公告)日:2025-03-07

    申请号:CN202411747851.2

    申请日:2024-12-02

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于三维高斯泼溅的大型装配场景的动态实时渲染方法,通过多个传感器相结合,构建一个用于动态场景实时渲染的三维高斯泼溅模型,该方法可以渲染装配场景的任意视角。三维高斯泼溅模型包括传感器数据对齐、三维高斯泼溅模型的初始化、三维高斯泼溅模型的预测与更新,结合三维高斯泼溅模型,设计了场景空间点对齐与预测器,解决多传感器数据信息冗余、动态实时渲染困难的难题,这个方法提高了装配的安全性与可靠性,能及时发现和处理装配过程中的问题,有助于推动工业智能制造快速且高质量的发展,从而推动工业制造智能化的转型。

    一种融合视觉与光谱显著性的高光谱药液异物检测方法

    公开(公告)号:CN116129140A

    公开(公告)日:2023-05-16

    申请号:CN202310079997.3

    申请日:2023-02-08

    Applicant: 湖南大学

    Abstract: 本发明公开了一种融合视觉与光谱显著性的高光谱药液异物检测方法,拍摄待检测药液的高光谱原始图像,并构建高光谱图像样本集;采用基于信息熵的排序波段选择方法从高光谱图像样本中选出预设数量的波段,将其转换为伪彩图像;对伪彩图像进行直方图对比度计算和梯度特征提取,并进行特征融合,得到基于视觉的显著性特征图,经过总变分滤波,得到初步异常检测图;对待检测药液的高光谱图像分别计算光谱角距离与光谱欧式距离并进行融合,得到光谱显著性特征图;采用光谱显著性特征图抑制初步异常检测图的背景信息,得到异物检测图,实现待检测药液的异物检测。该方法可以快速、准确地检测出药液成品中的微弱异物,实现对药液的无损检测与质量控制。

    一种曲面屏图像中点阵坐标修正与填补的方法及相关装置

    公开(公告)号:CN115100078A

    公开(公告)日:2022-09-23

    申请号:CN202210879305.9

    申请日:2022-07-25

    Applicant: 湖南大学

    Abstract: 本申请公开了一种曲面屏图像中点阵坐标修正与填补的方法及相关装置,用于实现点阵点的精准定位。本申请方法包括:使用水平样本点集生成水平曲线集合;根据竖直样本点集生成优化函数;选取竖直点阵点集的分段位置;根据子集P1、P2和P3生成第一分段函数;根据第一分段函数、竖直点阵点集和优化函数优化分段位置,计算L1;使用分段位置、分段函数表达式、竖直点阵点集和优化函数生成第二分段函数,并计算L2;当L1和L2的绝对差值不小于预设阈值时,重新优化分段位置x1和x2并拟合分段函数,计算并对比优化目标函数值;使用L1和L2的绝对差值小于预设阈值作为优化终止条件,生成竖直曲线集合;生成第一平滑网格并进行修复。

    一种多移动机器人协同作业方法及系统

    公开(公告)号:CN109986563B

    公开(公告)日:2022-03-15

    申请号:CN201910365606.8

    申请日:2019-05-01

    Applicant: 湖南大学

    Abstract: 本发明公开了一种多移动机器人协同作业方法及系统,首先对多移动机器人根据自身的能力值进行任务分配,各移动机器人移动到任务工作点,部分移动机器人实现协同搬运,而其他移动机器人实现协同装配的任务;之后,多移动机器人切换末端执行机构,对已装配好的加工部件进行细加工,优选通过机械臂上的摄像头对加工部件进行扫描拍照,邻域内移动机器人共享各自信息,再结合全局信息,各移动机器人规划出自己的加工轨迹,从而实现对加工部件,尤其是大型工件的协作加工,可有效地提高大型构件的加工效率,保证加工构件的一致性,且极大地提升系统的灵活性,能够完成之前单机器人系统不能完成的任务,实现了加工单元的柔性化与模块化。

    一种复杂异形曲面机器人三维测量的点云误配准滤除方法及系统

    公开(公告)号:CN109712174B

    公开(公告)日:2020-12-15

    申请号:CN201811595800.7

    申请日:2018-12-25

    Applicant: 湖南大学

    Abstract: 本发明公开了一种复杂异形曲面机器人三维测量的点云误配准滤除方法及系统,该方法包括以下几个步骤:步骤1:将输入的配准点云对划分为三组,从每组配准点云对中选取一个点云对,求解出对应的变换矩阵Ri;步骤2:将求得的变换矩阵转换为欧拉旋转角,构建欧拉旋转角集合D;步骤3:对D中的欧拉旋转角进行自适应密度聚类,选出聚类结果中包含欧拉旋转角数量最多的类,并将用于求解该类欧拉旋转角的配准点云对作为可信配准点云对,从而完成误配准点云对滤除;该方法充分利用了给定点云配准对的空间信息,进行有效分解,并高效聚类,从而能够有效排除三维点云配准中误配准点,对点云的噪声、配准位置偏移等有较强适应性。该系统结构简单,操作方便。

    一种基于矩特征学习神经网络的异形曲面跟踪方法及系统

    公开(公告)号:CN108717262B

    公开(公告)日:2020-10-02

    申请号:CN201810454177.7

    申请日:2018-05-14

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于矩特征学习神经网络的异形曲面跟踪方法及系统,所述方法包括如下步骤:获取期望矩特征向量;获取初始矩特征向量、初始矩特征向量的雅可比矩阵、机械臂的目标关节角速度向量;利用期望矩特征向量、初始矩特征向量以及械臂关节角速度矩阵对B样条基的神经网络控制器进行深度离线训练;机械臂关节角速度向量将当前矩特征向量与所述期望矩特征向量的特征误差输入训练后的B样条基的神经网络控制器得到当前位姿下机械臂关节角速度向量;依据当前位姿下机械臂关节角速度向量控制机械臂运动使机械臂端的相机随之移动。本发明通过上述方法可以实现异形曲面精确定位跟踪。

Patent Agency Ranking