-
公开(公告)号:CN109085751B
公开(公告)日:2021-03-12
申请号:CN201811077945.8
申请日:2018-09-16
Applicant: 南京大学
Abstract: 本发明提供了一种基于多粒度强化学习的六足机器人导航方法,步骤包括:由机器人对环境进行初次学习,得到细粒度条件的环境信息,再利用Q学习算法得到状态动作表;使用多粒度强化学习算法将原来的细粒度的状态动作表转化为粗粒度的状态动作表;使用多粒度迁移学习算法以及粗化后的状态动作表,对细粒度下的新环境进行重新学习和建图,再进行Q学习获得新环境下的状态动作集合;利用新环境下的状态动作集合对六足机器人进行实时导航控制。该六足机器人导航方法通过强化学习算法学习出变化环境中六足机器人在相应状态的最佳动作,并以此为基础,提高对变化环境的适应性;利用多粒度迁移学习机制,提高在环境变化的情况下的导航效率。
-
公开(公告)号:CN107562053A
公开(公告)日:2018-01-09
申请号:CN201710763224.1
申请日:2017-08-30
Applicant: 南京大学
IPC: G05D1/02
Abstract: 本发明提供了一种基于模糊Q学习的六足机器人避障方法,步骤包括:由六足机器人通过前部的超声波传感器测量机器人周围的障碍物距离,并通过模糊推理将测量的障碍物距离转化为有限的状态集合;根据有限的状态集合在仿真平台中进行避障仿真建模,再利用Q学习算法学习出六足机器人在相应状态下所要采取的动作;确定六足机器人在当前状态下所处的状态集合,再利用模糊推理确定六足机器人所处的动作集合,并对这些动作进行融合确定下一动作。该避障方法能够在障碍物数量较多的位置环境中实现较好的避障效果,具有良好的市场应用前景。
-
公开(公告)号:CN111552183B
公开(公告)日:2021-04-23
申请号:CN202010416376.6
申请日:2020-05-17
Applicant: 南京大学
IPC: G05B13/04
Abstract: 本发明公开了一种基于自适应权重强化学习的六足机器人避障方法,步骤包括:由六足机器人通过测距传感器测量机器人与附近各个障碍物的距离,并通过模糊隶属度函数将测量的障碍物距离转化为有限的状态集合;根据有限的状态集合建立六足机器人避障模型,再利用自适应权重强化学习算法学习出最优网络模型参数θ*;根据上述训练好的最优网络模型参数θ*得到六足机器人避障的最优目标策略,由最优目标策略获得六足机器人在t时刻避障所要采取的动作at。该避障方法能够在障碍物数量较多的位置环境中实现较好的避障效果,具有良好的市场应用前景。
-
公开(公告)号:CN111552183A
公开(公告)日:2020-08-18
申请号:CN202010416376.6
申请日:2020-05-17
Applicant: 南京大学
IPC: G05B13/04
Abstract: 本发明公开了一种基于自适应权重强化学习的六足机器人避障方法,步骤包括:由六足机器人通过测距传感器测量机器人与附近各个障碍物的距离,并通过模糊隶属度函数将测量的障碍物距离转化为有限的状态集合;根据有限的状态集合建立六足机器人避障模型,再利用自适应权重强化学习算法学习出最优网络模型参数θ*;根据上述训练好的最优网络模型参数θ*得到六足机器人避障的最优目标策略,由最优目标策略获得六足机器人在t时刻避障所要采取的动作at。该避障方法能够在障碍物数量较多的位置环境中实现较好的避障效果,具有良好的市场应用前景。
-
公开(公告)号:CN107644441A
公开(公告)日:2018-01-30
申请号:CN201710763243.4
申请日:2017-08-30
Applicant: 南京大学
Abstract: 本发明提供了一种基于三维成像的多足机器人复杂路况离散成落脚点方法,步骤包括:读取加速度数据和距离数据,计算获得多足机器人的位移数据;读取运动惯性测量数据,计算获得多足机器人的姿态角度数据;读取深度断层图像数据,计算获得深度断层图像;根据位移数据和姿态角度数据确定深度断层图像数据的采集位置信息,再在相邻位置的深度断层图像之间使用滑动窗口牛顿插值法,从而实现三维成像;根据三维成像,把复杂地形离散化成一个个机器人足端的落脚点。利用三维成像将复杂地形环境离散成有效的落脚点的方法具有高度的灵活性,适用于路况复杂的野外环境,能够降低复杂地面对多足机器人运动的影响,具有较高的适应能力。
-
公开(公告)号:CN109116854B
公开(公告)日:2021-03-12
申请号:CN201811077944.3
申请日:2018-09-16
Applicant: 南京大学
IPC: G05D1/02
Abstract: 本发明提供了一种基于强化学习的多组机器人协作控制方法及系统。方法步骤包括:强化学习生成状态动作表、组内各个机器人彼此共享强化学习结果、相遇时分享状态动作表生成全环境状态动作集合以及利用全环境状态动作集合来对各组机器人进行协作控制。系统包括环境建图模块、组内学习共享模块、组间学习共享模块以及协作控制模块。该多组机器人协作控制方法及系统通过强化学习算法学习出单个机器人在相应状态下的动作,并以此为基础,进行组内交互,共享一个机器人组的学习效果,最终在组间机器人相遇时,共享所有组内信息,并进行机器人避让,提高强化学习的效率;利用组间多机器人迁移学习机制,提高在大面积空间下的多机器人导航效率。
-
公开(公告)号:CN109116854A
公开(公告)日:2019-01-01
申请号:CN201811077944.3
申请日:2018-09-16
Applicant: 南京大学
IPC: G05D1/02
Abstract: 本发明提供了一种基于强化学习的多组机器人协作控制方法及系统。方法步骤包括:强化学习生成状态动作表、组内各个机器人彼此共享强化学习结果、相遇时分享状态动作表生成全环境状态动作集合以及利用全环境状态动作集合来对各组机器人进行协作控制。系统包括环境建图模块、组内学习共享模块、组间学习共享模块以及协作控制模块。该多组机器人协作控制方法及系统通过强化学习算法学习出单个机器人在相应状态下的动作,并以此为基础,进行组内交互,共享一个机器人组的学习效果,最终在组间机器人相遇时,共享所有组内信息,并进行机器人避让,提高强化学习的效率;利用组间多机器人迁移学习机制,提高在大面积空间下的多机器人导航效率。
-
公开(公告)号:CN109085751A
公开(公告)日:2018-12-25
申请号:CN201811077945.8
申请日:2018-09-16
Applicant: 南京大学
Abstract: 本发明提供了一种基于多粒度强化学习的六足机器人导航方法,步骤包括:由机器人对环境进行初次学习,得到细粒度条件的环境信息,再利用Q学习算法得到状态动作表;使用多粒度强化学习算法将原来的细粒度的状态动作表转化为粗粒度的状态动作表;使用多粒度迁移学习算法以及粗化后的状态动作表,对细粒度下的新环境进行重新学习和建图,再进行Q学习获得新环境下的状态动作集合;利用新环境下的状态动作集合对六足机器人进行实时导航控制。该六足机器人导航方法通过强化学习算法学习出变化环境中六足机器人在相应状态的最佳动作,并以此为基础,提高对变化环境的适应性;利用多粒度迁移学习机制,提高在环境变化的情况下的导航效率。
-
-
-
-
-
-
-