-
公开(公告)号:CN116306768A
公开(公告)日:2023-06-23
申请号:CN202310025427.6
申请日:2023-01-09
Applicant: 五邑大学
IPC: G06N3/006
Abstract: 本申请公开了一种沙丁鱼优化求解方法、系统和存储机制,涉及环境监测技术领域,所述方法包括:获取传感器的监测范围,根据监测范围和预设的随机函数得到每只沙丁鱼的当前位置;根据沙丁鱼种群的当前位置计算每只沙丁鱼的适应度值,得到沙丁鱼种群的第一最优位置;根据当前迭代次数和预设迭代次数进行计算,得到每只沙丁鱼的当前体力;根据当前体力,确定沙丁鱼的当前阶段;根据当前阶段、当前体力、当前位置和第一最优位置进行计算,得到每只沙丁鱼的更新位置;将更新位置作为更新的当前位置,重新根据更新的当前位置计算第一最优位置,以更新所述更新位置。本申请能够考虑迭代次数对更新位置的影响,提高了算法的精度。
-
公开(公告)号:CN117601120A
公开(公告)日:2024-02-27
申请号:CN202311543853.5
申请日:2023-11-17
Applicant: 五邑大学
Inventor: 王宏民 , 蒋孟 , 吴龙华 , 黄俊霖 , 覃才 , 植伟明 , 叶欣桐 , 刘起 , 张海杰 , 廖洁玲 , 李志宏 , 宋莹莹 , 江励 , 潘增喜 , 黄辉 , 梁艳阳 , 李桦健
IPC: B25J9/16
Abstract: 本发明实施例提供了一种自适应变阻抗控制方法和装置、电子设备及存储介质。本发明在强化学习的框架下,采用深度确定性策略梯度DDPG算法。DDPG算法包括Actor网络和Cr it ic网络,通过在实际操作中不断学习,DDPG算法使得双机械臂能够调整其动作策略,以最大化累积奖励。在训练阶段,从经验池中随机选择样本,用于训练Actor‑Cr it ic网络,以获取最优的网络结构,通过使用训练好的Actor‑Cr it ic网络,双机械臂能够基于当前状态数据集做出最优的动作选择,以适应不确定环境并实现对目标物体的高效抓取。本发明实施例允许双机械臂通过强化学习不断优化其行为,从而更好地适应复杂的工作场景。
-