-
公开(公告)号:CN115220342B
公开(公告)日:2024-09-20
申请号:CN202210797745.X
申请日:2022-07-06
Applicant: 复旦大学
IPC: G05B13/04
Abstract: 本发明涉及一种基于动力学搜索的足式机器人移动控制方法,包括:获取历史控制策略与环境交互所得的轨迹数据,以作为样本数据来训练得到相应的动力学模型;基于动力学模型,结合改进策略搜索算法,求解得到最优个体,即最优控制策略;根据最优控制策略,对应控制改变足式机器人各关节状态,完成足式机器人移动控制。与现有技术相比,本发明能够解决控制策略搜索过程中的新颖性量化误差问题、实现更高的样本利用率、提高控制策略的搜索效率和质量,从而保证足式机器人的移动控制精准性。
-
公开(公告)号:CN115220342A
公开(公告)日:2022-10-21
申请号:CN202210797745.X
申请日:2022-07-06
Applicant: 复旦大学
IPC: G05B13/04
Abstract: 本发明涉及一种基于动力学新颖性搜索的足式机器人移动控制方法,包括:获取历史控制策略与环境交互所得的轨迹数据,以作为样本数据来训练得到相应的动力学模型;基于动力学模型,结合改进策略搜索算法,求解得到最优个体,即最优控制策略;根据最优控制策略,对应控制改变足式机器人各关节状态,完成足式机器人移动控制。与现有技术相比,本发明能够解决控制策略搜索过程中的新颖性量化误差问题、实现更高的样本利用率、提高控制策略的搜索效率和质量,从而保证足式机器人的移动控制精准性。
-
公开(公告)号:CN114879486B
公开(公告)日:2024-11-08
申请号:CN202210186763.4
申请日:2022-02-28
Applicant: 复旦大学
Abstract: 本发明涉及一种基于强化学习和进化算法的机器人优化控制方法,包括以下步骤:S1:获取待控制的机器人的状态空间和动作空间;初始化环境,获取所述的机器人的初始状态及对应样本,并存入经验池;S3:对初始动作添加高斯噪声,获取其状态进化动作对并存入档案馆;S4:获取每个时间步的样本及状态进化动作对,对应存储;S5:利用策略梯度更新策略网络的参数,利用进化动作梯度更新策略网络的参数;S6:逐步执行步骤S4~S5直到机器人翻倒或累计经过预设的轨迹时间步,机器人完成一条轨迹;S7:重新初始化环境,重复步骤S3~S6直到达到预设的最大时间步。与现有技术相比,本发明具有优化速度快,效果好等优点。
-
公开(公告)号:CN114879486A
公开(公告)日:2022-08-09
申请号:CN202210186763.4
申请日:2022-02-28
Applicant: 复旦大学
Abstract: 本发明涉及一种基于强化学习和进化算法的机器人优化控制方法,包括以下步骤:S1:获取待控制的机器人的状态空间和动作空间;初始化环境,获取所述的机器人的初始状态及对应样本,并存入经验池;S3:对初始动作添加高斯噪声,获取其状态进化动作对并存入档案馆;S4:获取每个时间步的样本及状态进化动作对,对应存储;S5:利用策略梯度更新策略网络的参数,利用进化动作梯度更新策略网络的参数;S6:逐步执行步骤S4~S5直到机器人翻倒或累计经过预设的轨迹时间步,机器人完成一条轨迹;S7:重新初始化环境,重复步骤S3~S6直到达到预设的最大时间步。与现有技术相比,本发明具有优化速度快,效果好等优点。
-
公开(公告)号:CN116038711A
公开(公告)日:2023-05-02
申请号:CN202310058917.6
申请日:2023-01-17
Applicant: 复旦大学
IPC: B25J9/16
Abstract: 本发明提供一种基于动作序列隐空间的多样运动控制方法,该方法选用运动控制中的开环控制方法,将智能体的运动控制过程抽象为连续的动作序列,并将这个动作序列视为智能体的控制器,智能体通过依次执行动作序列中的每个动作以完成运动控制。然后利用变分自编码器的无监督学习方式学习控制器的隐空间,利用训练好的解码器将隐空间的值重构为动作序列,不同的隐空间中的值对应不同的控制器以控制智能体产生不同的运动模式。因此对于连续的隐空间,理论上可以得到无穷多个控制器,从而大大提升了多样性的程度。同时,本发明通过控制隐空间的值,实现了对控制器彼此之间多样性的精细控制。
-
公开(公告)号:CN114879494A
公开(公告)日:2022-08-09
申请号:CN202210443825.5
申请日:2022-04-25
Applicant: 复旦大学
IPC: G05B13/04
Abstract: 本发明涉及一种基于进化与学习的机器人自适应设计方法,该方法包括:S1、随机生成机器人种群,对种群中机器人个体的形态和控制器基因进行编码;S2、对种群中机器人个体的性能进行评估;S3、遍历种群中的每个机器人个体,通过控制器的进化使得机器人在任务环境中进行学习,完成种群中每个机器人个体中控制器的优化;S4、采用进化算法产生新的机器人种群;S5、重复执行步骤S2~S4直到完成指定的迭代次,完成机器人设计。与现有技术相比,本发明不受机器人的形态限制,具备通用性。
-
公开(公告)号:CN114815801A
公开(公告)日:2022-07-29
申请号:CN202111652498.6
申请日:2021-12-30
Applicant: 复旦大学
IPC: G05D1/02
Abstract: 本发明涉及一种基于策略‑价值网络及MCTS的自适应环境路径规划方法,包括:基于策略‑价值网络和MCTS算法构建路径规划模型,并对该模型进行训练;路径规划模型使用双头卷积神经网络pv‑network预测状态价值和可行空间的选择概率;初始化路径规划任务,获取路径起点与终点信息;将路径起点与终点信息输入路径规划模型,获得路径规划结果。与现有技术相比,本发明具有规划能力强、决策速度快、无需收集大量数据等优点。
-
-
-
-
-
-