-
公开(公告)号:CN115164890B
公开(公告)日:2025-04-01
申请号:CN202210651734.0
申请日:2022-06-09
Applicant: 复旦大学
IPC: G01C21/20 , G06N3/08 , G06N5/04 , G06N3/0464
Abstract: 本发明涉及一种基于模仿学习的群体无人机自主运动规划方法,该方法包括:构建专家系统:获取用于模仿学习的数据集,包括实时环境感知、无人机自身状态、群体中其他无人机信息、无人机自身实时预测轨迹;构建学生系统:包括通过模仿学习进行无人机轨迹预测的神经网络推理模块,神经网络推理模块通过专家系统获取的数据集进行训练;对群体中的每个无人机分别配置训练过的学生系统,通过学生系统进行无人机轨迹预测,完成自主运动规划。与现有技术相比,本发明采用了模仿学习,无需设计有限状态机决策过程,完全依靠神经网络的学习进行决策,融合了自主规划与决策过程,节约了时间。
-
公开(公告)号:CN114879486A
公开(公告)日:2022-08-09
申请号:CN202210186763.4
申请日:2022-02-28
Applicant: 复旦大学
Abstract: 本发明涉及一种基于强化学习和进化算法的机器人优化控制方法,包括以下步骤:S1:获取待控制的机器人的状态空间和动作空间;初始化环境,获取所述的机器人的初始状态及对应样本,并存入经验池;S3:对初始动作添加高斯噪声,获取其状态进化动作对并存入档案馆;S4:获取每个时间步的样本及状态进化动作对,对应存储;S5:利用策略梯度更新策略网络的参数,利用进化动作梯度更新策略网络的参数;S6:逐步执行步骤S4~S5直到机器人翻倒或累计经过预设的轨迹时间步,机器人完成一条轨迹;S7:重新初始化环境,重复步骤S3~S6直到达到预设的最大时间步。与现有技术相比,本发明具有优化速度快,效果好等优点。
-
公开(公告)号:CN116205266A
公开(公告)日:2023-06-02
申请号:CN202210189434.5
申请日:2022-02-28
Applicant: 复旦大学
IPC: G06N3/0455 , G06N3/0464 , G06N3/084 , B07C5/36
Abstract: 本发明涉及一种机器人小样本分拣方法,该方法包括:构建融合识别和抓取的端到端的机器人小样本分拣网络;根据元学习的方法,训练机器人小样本分拣网络使机器人适应不同的分拣任务。与现有技术相比,本发明少样本分拣元学习框架,赋予了机器人快速学习分拣训练集中没出现过的物体的能力,不仅是分拣目标物体,本发明还让机器人学会按照示范抓取时的抓取部位来抓取目标物体,同时,每次遇到新物体,只需给机器人一次分拣示范,机器人就会马上学会用合适的抓取姿势去抓取目标物体的目标部位,以此达到鲁棒和安全地分拣的目的。
-
公开(公告)号:CN114815828A
公开(公告)日:2022-07-29
申请号:CN202210442298.6
申请日:2022-04-25
Applicant: 复旦大学
IPC: G05D1/02
Abstract: 本发明涉及一种强化学习结合循环网络的机器人路径规划及控制方法,该方法包括:构建生成机器人路径的循环网络,所述的循环网络依次生成机器人路径中的路径点;采用强化学习方法训练所述的循环网络;利用训练的循环网络执行机器人路径规划;控制机器人按照规划的路径点依次移动。与现有技术相比,本发明能够在局部信息受限的同时极大程度上对未知环境进行推理,节约资源,提升效率,实现可观测范围内的可行路径规划,从而在复杂场景下能够找到目标点,实现机器人的移动控制。
-
公开(公告)号:CN114815828B
公开(公告)日:2025-04-04
申请号:CN202210442298.6
申请日:2022-04-25
Applicant: 复旦大学
Abstract: 本发明涉及一种强化学习结合循环网络的机器人路径规划及控制方法,该方法包括:构建生成机器人路径的循环网络,所述的循环网络依次生成机器人路径中的路径点;采用强化学习方法训练所述的循环网络;利用训练的循环网络执行机器人路径规划;控制机器人按照规划的路径点依次移动。与现有技术相比,本发明能够在局部信息受限的同时极大程度上对未知环境进行推理,节约资源,提升效率,实现可观测范围内的可行路径规划,从而在复杂场景下能够找到目标点,实现机器人的移动控制。
-
公开(公告)号:CN114879486B
公开(公告)日:2024-11-08
申请号:CN202210186763.4
申请日:2022-02-28
Applicant: 复旦大学
Abstract: 本发明涉及一种基于强化学习和进化算法的机器人优化控制方法,包括以下步骤:S1:获取待控制的机器人的状态空间和动作空间;初始化环境,获取所述的机器人的初始状态及对应样本,并存入经验池;S3:对初始动作添加高斯噪声,获取其状态进化动作对并存入档案馆;S4:获取每个时间步的样本及状态进化动作对,对应存储;S5:利用策略梯度更新策略网络的参数,利用进化动作梯度更新策略网络的参数;S6:逐步执行步骤S4~S5直到机器人翻倒或累计经过预设的轨迹时间步,机器人完成一条轨迹;S7:重新初始化环境,重复步骤S3~S6直到达到预设的最大时间步。与现有技术相比,本发明具有优化速度快,效果好等优点。
-
公开(公告)号:CN114863160A
公开(公告)日:2022-08-05
申请号:CN202210187223.8
申请日:2022-02-28
Applicant: 复旦大学
IPC: G06V10/764 , G06V10/82 , G06K9/62 , G06N3/08 , G06N3/04
Abstract: 本发明涉及一种用于机器人分拣的自监督小样本实例分割方法,该方法包括:构建小样本实例分割网络,该网络为基于SOLO的神经网络模型;采用自监督策略对小样本实例分割网络进行训练。与现有技术相比,本发明提出了实时的端到端小样本实例分割框架,在增加很少的GPU使用内存的前提下实现了小样本多目标分割的目标,大大地提高了机器人的分拣速度,同时借鉴了对比学习的方法并充分利用了分拣背景的优势,提出了一个不需要标注数据的自监督训练策略,不仅极大地节省了宝贵的标注资源,还使得数据的扩充变得简单。
-
公开(公告)号:CN114881240B
公开(公告)日:2023-09-26
申请号:CN202210189441.5
申请日:2022-02-28
Applicant: 复旦大学
Abstract: 本发明涉及一种基于多注意力机制的机器人视觉示教学习模型及方法,该模型包括:图像特征预处理模块:包括若干级联的卷积层,用于提取图像的底层特征;卷积头模块:包括多个级联的卷积头,用于提取得到不同层次的特征图;域自适应模块:对不同层次的特征图进行计算构造多注意力内部损失,所述的多注意力内部损失用于自适应更新模型的策略参数;机器人动作预测模块:对不同层次的特征图进行残差连接后预测输出机器人动作。与现有技术相比,本发明通过提取不同层次的神经网络信息来学习机器人视觉任务,可以有效地增强模型的认知识别能力和任务适应能力。
-
公开(公告)号:CN115164890A
公开(公告)日:2022-10-11
申请号:CN202210651734.0
申请日:2022-06-09
Applicant: 复旦大学
Abstract: 本发明涉及一种基于模仿学习的群体无人机自主运动规划方法,该方法包括:构建专家系统:获取用于模仿学习的数据集,包括实时环境感知、无人机自身状态、群体中其他无人机信息、无人机自身实时预测轨迹;构建学生系统:包括通过模仿学习进行无人机轨迹预测的神经网络推理模块,神经网络推理模块通过专家系统获取的数据集进行训练;对群体中的每个无人机分别配置训练过的学生系统,通过学生系统进行无人机轨迹预测,完成自主运动规划。与现有技术相比,本发明采用了模仿学习,无需设计有限状态机决策过程,完全依靠神经网络的学习进行决策,融合了自主规划与决策过程,节约了时间。
-
公开(公告)号:CN114881240A
公开(公告)日:2022-08-09
申请号:CN202210189441.5
申请日:2022-02-28
Applicant: 复旦大学
Abstract: 本发明涉及一种基于多注意力机制的机器人视觉示教学习模型及方法,该模型包括:图像特征预处理模块:包括若干级联的卷积层,用于提取图像的底层特征;卷积头模块:包括多个级联的卷积头,用于提取得到不同层次的特征图;域自适应模块:对不同层次的特征图进行计算构造多注意力内部损失,所述的多注意力内部损失用于自适应更新模型的策略参数;机器人动作预测模块:对不同层次的特征图进行残差连接后预测输出机器人动作。与现有技术相比,本发明通过提取不同层次的神经网络信息来学习机器人视觉任务,可以有效地增强模型的认知识别能力和任务适应能力。
-
-
-
-
-
-
-
-
-