一种基于深度强化学习的机器人三维测量路径规划方法

    公开(公告)号:CN116604571B

    公开(公告)日:2023-10-27

    申请号:CN202310864607.3

    申请日:2023-07-14

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于深度强化学习的机器人三维测量路径规划方法,包含基于多层视球和下一最优视点的MLVS‑NBV规划方法生成候选视点集合,使用IKFast运动学求解器求解各视点对应的机器人的所有逆运动学解,建立视点—逆运动学解的评估矩阵,利用PC‑NBV点云网络学习和预测选择下一视点后的覆盖率,建立GTSP问题并利用DDQN深度强化学习方法求解,使用GPMP2运动规划器快速生成测量路径,将训练网络迁移到实际的机器人测量任务。通过视点规划方法保证测量视点的可行性并提高对不同测量对象的测量覆盖率,利用深度强化学习技术实现对不同已知对象的自主测量和对未知对象的探索式测量,规划速度快、适应性强、效率高。

    一种基于熵增优化的大型复杂构件点云全局匹配方法

    公开(公告)号:CN114529703A

    公开(公告)日:2022-05-24

    申请号:CN202210192372.3

    申请日:2022-02-28

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于熵增优化的大型复杂构件点云全局匹配方法,包括获取相邻视角场景的三维点云坐标,获得源点云X与目标点云Y,对其下采样分别得到采样点云x与采样点云y;基于采样点云x与采样点云y构建物理能量模型;基于熵增定律,根据物理能量模型计算对采样点云x的当前运动的扭矩T和拉力S,根据扭矩T和拉力S计算当前施加的旋转及平移(Rk,tk),获得变换后的点集;计算当前采样点云x在引力场中的势能并记录当前迭代次数;根据势能或迭代次数确定满足预设的结束条件时,累计所有变换后的点集,对源点云X进行旋转平移,实现源点云X与目标点云Y之间的配准。提高了配准精度与鲁棒性,降低方法的失败率。

    一种基于人手轨迹预测的机械臂路径重规划方法

    公开(公告)号:CN119795195A

    公开(公告)日:2025-04-11

    申请号:CN202510286742.3

    申请日:2025-03-12

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于人手轨迹预测的机械臂路径重规划方法,包括:步骤1,采集与机械臂协同工作人员的人手在三维空间中运动轨迹的图像,并根据图像识别出人手的运动位姿;步骤2,根据步骤1得到的人手的运动位姿,基于隐马尔可夫模型对人手的行为和轨迹进行建模,然后通过对于历史数据的学习,对人手的未来行动轨迹进行预测;步骤3,使用改进的快速探索随机树算法,为机械臂生成从当前位置到目标位置,且同时避开步骤2中预测到的人手的未来行动轨迹的机械臂路径。本发明所提出的基于人手预测的机械臂路径重规划方法不仅提高了人机交互的安全性,也显著增强了机器人系统的适应性和响应速度。

    多末端执行器自主切换的复合移动机器人作业方法与系统

    公开(公告)号:CN119188783B

    公开(公告)日:2025-03-21

    申请号:CN202411687643.8

    申请日:2024-11-25

    Applicant: 湖南大学

    Abstract: 一种多末端执行器自主切换的复合移动机器人作业方法与系统,作业方法包括:1、全场景地图建模;2、将涂胶枪换装到机械臂末端,机器人对待装配结构件待涂胶位置进行路径规划并涂胶;3、获取机器人抓取待装配结构件的抓取位姿;4、将机械臂末端切换为二指夹爪,依据抓取位姿将待装配结构件从库内取出;5、获取待装配结构件待装配位置的位姿,确定待装配结构件在待装配蒙皮上的装配位姿,将待装配结构件粘接在待装配蒙皮上;6、获取待装配结构件和待装配蒙皮粘合后螺孔的位姿;将螺丝枪换装到机械臂末端,将待装配结构件固定在待装配蒙皮上。本发明可根据待装配结构件类型,自主确定其在蒙皮上的装配位置,通过单机器人实现了大型部件装配。

    一种多视角特征引导的大范围场景三维建模方法及系统

    公开(公告)号:CN119359939A

    公开(公告)日:2025-01-24

    申请号:CN202411943433.0

    申请日:2024-12-27

    Applicant: 湖南大学

    Abstract: 本发明公开了一种多视角特征引导的大范围场景三维建模方法及系统,获取多个视角相机的图像,并输入至多视角立体视觉三维重建神经网络模型中,模型包括多阶段上下文特征提取模块、多视角图像匹配代价构建模块、多视角匹配代价特征聚合网络和视差回归预测模块,通过多视角图像交叉特征迁移互相关匹配代价构建方法构建多视角匹配代价,通过可微分的多视角联合特征引导的各项异性扩散代价聚合方法聚合多视角匹配代价特征,结合损失函数对神经网络模型进行训练,提升多视角三维场景重建性能和深度估计精度。通过训练构建好的多视角立体视觉三维重建神经网络模型,对多视角视频图像进行推理,并实现大范围制造场景动态三维重建。

    一种基于贝叶斯交互基元的双臂机器人技能学习方法

    公开(公告)号:CN118848998B

    公开(公告)日:2025-01-21

    申请号:CN202411347391.4

    申请日:2024-09-26

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于贝叶斯交互基元的双臂机器人技能学习方法,搭建双臂机器人技能学习平台,以控制双臂机器人和采集数据;通过遥操作对双臂机器人进行示教,采集专家示教数据;建立贝叶斯交互基元学习框架,使用基函数拟合示教轨迹;通过多传感器获取当前状态的多模态数据,采用序列对齐和动态捕捉的方法进行时空推理,得到当前状态的相位,贝叶斯交互基元根据当前相位输出双臂机器人未来动作序列的后验分布;每个时间步都根据当前和历史输出的动作序列的相应动作进行加权平均后执行,直到完成相位估计任务。技能学习效率高、示教方式简单易行、技能学习效果优异,有效解决了双臂机器人技能发育慢、双臂操作协同性差、操作流畅性低的问题。

Patent Agency Ranking