一种融合记忆机制的机械臂多场景快速运动规划方法

    公开(公告)号:CN109940614B

    公开(公告)日:2021-01-22

    申请号:CN201910179314.5

    申请日:2019-03-11

    Applicant: 东北大学

    Abstract: 本发明属于机器人操控领域,提出一种融合记忆机制的机械臂多场景快速运动规划方法。通过模拟人类的记忆机制,在建立高斯混合模型的过程中将当前场景及对应的GMM模型通过感觉记忆、短期记忆和长期记忆三个阶段存储到记忆空间,让机器人能够记住出现过的环境。当机器人遇到类似环境时,便能够根据记忆适应当前场景,快速完成运动规划。该方法使用模型进行引导机械臂在关节空间采样并代替传统的FCL方法进行碰撞检测,与RRT*算法相比,有效提高了算法的规划成功率,减少了算法的运行时间。机器人能够通过记忆机制记住所遇到的场景及其对应模型,并在遇到相似场景时通过提取对应的场景模型快速的适应环境,不需要重新训练学习,提高了规划算法的适应能力。

    基于最小匹配距离与随机采样一致性的错误匹配去除方法

    公开(公告)号:CN107229934A

    公开(公告)日:2017-10-03

    申请号:CN201710255005.2

    申请日:2017-04-24

    Applicant: 东北大学

    CPC classification number: G06K9/4609

    Abstract: 基于最小匹配距离与随机采样一致性的错误匹配去除方法,包括如下步骤:计算出匹配数据集合中所有匹配对的匹配距离,选出其中的最小的匹配距离,将匹配距离大于最小匹配距离n倍的匹配对去除,保留剩余的匹配数据集合O,从集合O中随机选出m个不共线的样本,计算得出单应性矩阵H,记为模型M,利用模型M对O中的全部数据进行测试,并计算全部数据与模型M的投影误差,若误差小于阈值T,则将对应点加入到内点集合I,若当前内点集元素个数大于最优内点集Ibest个数,则令Ibest=I,同时更新迭代次数k,若k大于K,输出Ibest及其对应的模型M,若k小于K,则返回。本算法在保证实时性和准确性的同时,有效避免了特征点较少以及错误匹配无法去除干净的情况。

    基于异构深度网络融合的动态目标抓取姿态快速检测方法

    公开(公告)号:CN111598172A

    公开(公告)日:2020-08-28

    申请号:CN202010420998.6

    申请日:2020-05-18

    Applicant: 东北大学

    Abstract: 本发明属于目标检测与机器人操作领域,公开了基于异构深度网络融合的动态目标抓取姿态快速检测方法。所述方法包括:1.动态目标样本集的制作方法;2.异构深度网络的训练方法;3.异构深度网络的融合机制;4.抓取姿态确定方法。待检测的动态目标物体,通过深度相机获取其RGB图像和深度图,然后将RGB图和深度图进行I型深度网络的目标识别,获取目标的边界框和中心区域的点云信息,然后通过异构融合机制选取合适的点云输入到II型深度网络中进行抓取姿态识别,进而得到最终的抓取姿态检测结果。该方法可以充分发挥不同深度网络的优势,可快速提取动态目标的核心特征,进而实现高效稳定的抓取姿态检测与识别。

    基于时间粒度提升的动态目标不确定运动轨迹预测方法

    公开(公告)号:CN111667099B

    公开(公告)日:2023-10-10

    申请号:CN202010421011.2

    申请日:2020-05-18

    Applicant: 东北大学

    Abstract: 本发明属于目标检测与机器人操作领域,公开了基于时间粒度提升的动态目标不确定运动轨迹预测方法,包括如下步骤:利用机器人视觉处理模块采集原始运动轨迹数据通过标准化,作为训练集;通过粒度分割实现轨迹数据的粒度化;通过时间粒度提升策略,选择合适的基预测器权重系数并完成训练,构建高精度协同预测模型;通过滚动迭代和基预测器集成获得多步高精度预测值。本方法通过粒度化提取轨迹的有效特征,在保持训练时间基本不变的情况下,大幅度提高了动态目标不确定运动轨迹的预测精度和准确率,还增强了算法对噪声信息的抗干扰能力,对于后续机器人实施自主动态操作具有重要意义。

    一种融合记忆机制的机械臂多场景快速运动规划方法

    公开(公告)号:CN109940614A

    公开(公告)日:2019-06-28

    申请号:CN201910179314.5

    申请日:2019-03-11

    Applicant: 东北大学

    Abstract: 本发明属于机器人操控领域,提出一种融合记忆机制的机械臂多场景快速运动规划方法。通过模拟人类的记忆机制,在建立高斯混合模型的过程中将当前场景及对应的GMM模型通过感觉记忆、短期记忆和长期记忆三个阶段存储到记忆空间,让机器人能够记住出现过的环境。当机器人遇到类似环境时,便能够根据记忆适应当前场景,快速完成运动规划。该方法使用模型进行引导机械臂在关节空间采样并代替传统的FCL方法进行碰撞检测,与RRT*算法相比,有效提高了算法的规划成功率,减少了算法的运行时间。机器人能够通过记忆机制记住所遇到的场景及其对应模型,并在遇到相似场景时通过提取对应的场景模型快速的适应环境,不需要重新训练学习,提高了规划算法的适应能力。

    基于异构深度网络融合的动态目标抓取姿态快速检测方法

    公开(公告)号:CN111598172B

    公开(公告)日:2023-08-29

    申请号:CN202010420998.6

    申请日:2020-05-18

    Applicant: 东北大学

    Abstract: 本发明属于目标检测与机器人操作领域,公开了基于异构深度网络融合的动态目标抓取姿态快速检测方法。所述方法包括:1.动态目标样本集的制作方法;2.异构深度网络的训练方法;3.异构深度网络的融合机制;4.抓取姿态确定方法。待检测的动态目标物体,通过深度相机获取其RGB图像和深度图,然后将RGB图和深度图进行I型深度网络的目标识别,获取目标的边界框和中心区域的点云信息,然后通过异构融合机制选取合适的点云输入到II型深度网络中进行抓取姿态识别,进而得到最终的抓取姿态检测结果。该方法可以充分发挥不同深度网络的优势,可快速提取动态目标的核心特征,进而实现高效稳定的抓取姿态检测与识别。

    基于时间粒度提升的动态目标不确定运动轨迹预测方法

    公开(公告)号:CN111667099A

    公开(公告)日:2020-09-15

    申请号:CN202010421011.2

    申请日:2020-05-18

    Applicant: 东北大学

    Abstract: 本发明属于目标检测与机器人操作领域,公开了基于时间粒度提升的动态目标不确定运动轨迹预测方法,包括如下步骤:利用机器人视觉处理模块采集原始运动轨迹数据通过标准化,作为训练集;通过粒度分割实现轨迹数据的粒度化;通过时间粒度提升策略,选择合适的基预测器权重系数并完成训练,构建高精度协同预测模型;通过滚动迭代和基预测器集成获得多步高精度预测值。本方法通过粒度化提取轨迹的有效特征,在保持训练时间基本不变的情况下,大幅度提高了动态目标不确定运动轨迹的预测精度和准确率,还增强了算法对噪声信息的抗干扰能力,对于后续机器人实施自主动态操作具有重要意义。

Patent Agency Ranking