-
公开(公告)号:CN117656059A
公开(公告)日:2024-03-08
申请号:CN202311543862.4
申请日:2023-11-17
Applicant: 五邑大学
IPC: B25J9/16
Abstract: 本发明实施例提供了一种自适应变阻抗控制方法和装置、电子设备及存储介质。在双机械臂协作抓取目标物体的过程中,将目标物体受到的内力和外力进行解耦,并对内力与外力进行分步分析,得到目标物体的受力分析结果;参考模型根据受力分析结果生成机械臂的期望运动轨迹,自适应控制器通过比较机械臂实际运动轨迹和期望运行轨迹之间的误差信号来调整阻抗参数;在双机械臂运行过程中,根据自适应阻抗控制模型输出的误差信号更新阻抗参数;根据更新的阻抗参数调整自适应阻抗控制策略,以使双机械臂根据自适应阻抗控制策略对目标物体进行抓取。基于此,本发明实施例能够使得双机械臂在与环境交互时能够灵活地调整其阻抗参数,以更好地完成抓取任务。
-
公开(公告)号:CN117601120A
公开(公告)日:2024-02-27
申请号:CN202311543853.5
申请日:2023-11-17
Applicant: 五邑大学
Inventor: 王宏民 , 蒋孟 , 吴龙华 , 黄俊霖 , 覃才 , 植伟明 , 叶欣桐 , 刘起 , 张海杰 , 廖洁玲 , 李志宏 , 宋莹莹 , 江励 , 潘增喜 , 黄辉 , 梁艳阳 , 李桦健
IPC: B25J9/16
Abstract: 本发明实施例提供了一种自适应变阻抗控制方法和装置、电子设备及存储介质。本发明在强化学习的框架下,采用深度确定性策略梯度DDPG算法。DDPG算法包括Actor网络和Cr it ic网络,通过在实际操作中不断学习,DDPG算法使得双机械臂能够调整其动作策略,以最大化累积奖励。在训练阶段,从经验池中随机选择样本,用于训练Actor‑Cr it ic网络,以获取最优的网络结构,通过使用训练好的Actor‑Cr it ic网络,双机械臂能够基于当前状态数据集做出最优的动作选择,以适应不确定环境并实现对目标物体的高效抓取。本发明实施例允许双机械臂通过强化学习不断优化其行为,从而更好地适应复杂的工作场景。
-