一种基于深度强化学习的密集场景机械臂抓取多目标物体的方法

    公开(公告)号:CN116852353A

    公开(公告)日:2023-10-10

    申请号:CN202310744751.3

    申请日:2023-06-21

    Abstract: 本发明公开了一种基于深度强化学习的密集场景机械臂抓取多目标物体的方法,包括在CoppeliaSim仿真软件中添加机械臂和RGB‑D相机搭建与现实环境相似的场景,将相机捕获到的图像数据利用正交变换和旋转生成不同角度的高度图,接着把多张高度图输入由特征提取模块DenseNet121以及两个并行的推动网络和抓取网络组成的全卷积神经网络并输出像素级Q值图,利用掩码函数筛选出有意义的像素点并获取t时刻推动作最大Q值#imgabs0#和抓动作最大Q值#imgabs1#,根据当前状态下最大Q值选择动作,其中,推动的奖励值rp由推动前后场景中所有物体的平均相对距离的差值是否大于阈值决定。在真实场景的抓取中,将仿真端训练好的推抓协同策略网络应用到实物平台,机械臂在真实环境下根据动作选择规则进行决策完成抓取任务。所述的方法可以让机械臂专注于有效的抓取和推动来促进模型进行高效率的学习,并且可以在工作空间内评估每个候选推动作对物体密集程度的影响,为抓取提供了足够的空间,提高了抓取的成功率。

Patent Agency Ranking