-
公开(公告)号:CN119741379A
公开(公告)日:2025-04-01
申请号:CN202411773419.0
申请日:2024-12-04
Applicant: 南京工业大学
IPC: G06T7/77 , G06V10/82 , G06V10/762 , G06N3/045 , G06N3/09 , G06N3/0985 , G06N3/092
Abstract: 本发明公开了一种优化机械臂6D抓取位姿的方法,包括:在Pybullet仿真环境下添加机械臂和深度相机的模型,从深度相机获取待抓取物体的点云信息,利用K‑means聚类方法将点云分成两类;沿着分类后的点云构建包围长方体,并根据这些长方体构建合适的模拟抓取位姿;根据筛选后的模拟抓取位姿从物体抓取数据集中选择优化后的专家抓取位姿,构建抓取启发式监督学习目标,并结合模仿学习和深度强化学习方法进行学习和训练。本发明利用物体表面结构特征构建更适合抓取的模拟抓取点,并从物体抓取数据集中选择距离模拟抓取点最近的专家抓取位姿进行抓取训练,通过对启发式目标进行优化最终实现机械臂对抓取位姿的优化。
-
公开(公告)号:CN118544353A
公开(公告)日:2024-08-27
申请号:CN202410772342.9
申请日:2024-06-14
Applicant: 南京工业大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于深度强化学习的机械臂6D位姿抓取方法,包括:在仿真环境中搭建用于机械臂6D位姿抓取的实验平台;在仿真环境中构建6D位姿抓取网络;初始化经验回放池为空、随机初始化策略网络和价值网络的参数以及目标策略网络和目标价值网络的参数;收集经验样本,并存入经验回放池;当经验样本达到阈值,开始在仿真环境中训练价值网络和策略网络;搭建机械臂实物平台,将仿真环境下训练好的6D位姿抓取网络移植到实物平台,机械臂在真实环境下进行动作决策实现物体抓取。本方法提出的基于深度强化学习的机械臂6D位姿抓取方法,基于在线专家演示的生成增强数据样本,极大丰富了专家经验样本,提高了经验池中高质量样本的比例,采用基于深度神经网络的奖励值评估方法精细评估机械臂的抓取位姿优劣,有效提高了机械臂在非结构化环境中抓取任意位姿物体的成功率。
-
公开(公告)号:CN116330283A
公开(公告)日:2023-06-27
申请号:CN202310301614.2
申请日:2023-03-24
Applicant: 南京工业大学
IPC: B25J9/16
Abstract: 本发明公开了一种密集场景下机械臂抓取目标物体的方法,包括:通过V‑rep动态仿真软件搭建同现实环境相似的场景;在仿真环境中搭建编码器‑解码器结构的推动与抓取协同策略网络,整体结构由密集卷积神经网络DenseNet121以及两个并行的全卷积神经网络组成;搭建真实的密集堆叠复杂场景,将仿真端训练好的推动与抓取协同网络移植到实物平台,机械臂在真实环境下进行动作决策抓取目标物体。本方法采用深度强化学习的方式不断在工作环境中尝试动作获取奖励值来训练推动与抓取协同策略网络,根据目标物体的遮挡状态由策略网络自主决策最优动作,形成有效动作序列完成目标抓取任务,提高了在密集场景下目标物体的抓取成功率。
-
-