-
公开(公告)号:CN112132263B
公开(公告)日:2022-09-16
申请号:CN202010950487.5
申请日:2020-09-11
Applicant: 大连理工大学
Abstract: 本发明提供了一种基于强化学习的多智能体自主导航方法,属于多智能体强化学习领域。本发明通过长短时记忆网络将环境历史状态编码为系统的隐状态特征向量,并将编码后的系统隐状态作为智能体的策略网络以及动作评价网络的输入,从而使得智能体的策略网络和动作评价网络都能基于环境全局的信息工作,使得智能体的策略更加鲁棒。
-
公开(公告)号:CN114154397A
公开(公告)日:2022-03-08
申请号:CN202111316717.3
申请日:2021-11-09
Applicant: 大连理工大学
IPC: G06F30/27 , G06K9/62 , G06N3/08 , A63F13/822
Abstract: 本发明公开了一种基于深度强化学习的隐式对手建模方法,属于多智能体强化学习方向的对手建模领域。本发明围绕动态博弈环境下的对手建模问题,利用深度强化学习技术提出了一种改进的隐式对手建模方法。该隐式建模方法不依赖于特定领域知识,能适应对手策略的动态变化,同时还解决了过度估计问题并具有较快的收敛速度。
-
公开(公告)号:CN113886672B
公开(公告)日:2024-05-21
申请号:CN202111225568.X
申请日:2021-10-21
Applicant: 大连理工大学
IPC: G06F16/953 , G06N3/006 , G06N3/126
Abstract: 本发明提供了一种基于局部搜索和种群增强进化策略的网络关键节点识别方法,属于组合优化技术领域。该方法采用启发式搜索方法对网络图进行搜索,采用贪婪法则初始化解集池过程;随机选取两个解进行交叉过程;之后进行提升过程;最后更新解集池,从交叉过程开始循环直到达到终止条件。本发明加入了初始化解集池和交叉策略,提高了解的多样性;针对单纯文化基因算法可能出现的迭代冗余过多的问题,将原有的基准值依次递减重新求解的方法改为只初始化一次解集池,减少冗余;同时在提升过程中加入割点策略,加快了运算速度。针对可能出现的种群趋同现象,以种群中节点的重复度为依据,使用若干个随机解替换掉种群中最差的解,提高了种群中解的多样性。
-
公开(公告)号:CN112859847B
公开(公告)日:2022-04-01
申请号:CN202110010473.X
申请日:2021-01-06
Applicant: 大连理工大学
IPC: G05D1/02
Abstract: 一种工作在通行方向限制下的多机器人协同路径规划方法,其属于多机器人协同控制技术领域。该方法以路径长度与路径平滑度作为路径评价标准,使用A*算法进行单机器人路径规划;然后在全局地图中根据机器人的位置信息及占位信息,建立与栅格地图尺寸一致的、可以动态更新的通道状态表;接着对于路径规划层生成的路径,再判断是否存在局部环路;最后结合通道状态表中相关栅格的占用状态,判断局部环路优化的条件是否成立,成立则将优化后的路径下发给机器人,并更新通道状态表。该方法利用通道状态表,描述机器人之间的相互影响,在实现动态碰撞避免的基础上,对通行方向限制导致的局部环路现象进行分析处理,减小路径代价,提高整体工作效率。
-
公开(公告)号:CN112132263A
公开(公告)日:2020-12-25
申请号:CN202010950487.5
申请日:2020-09-11
Applicant: 大连理工大学
Abstract: 本发明提供了一种基于强化学习的多智能体自主导航方法,属于多智能体强化学习领域。本发明通过长短时记忆网络将环境历史状态编码为系统的隐状态特征向量,并将编码后的系统隐状态作为智能体的策略网络以及动作评价网络的输入,从而使得智能体的策略网络和动作评价网络都能基于环境全局的信息工作,使得智能体的策略更加鲁棒。
-
-
-
-