-
公开(公告)号:CN109940614B
公开(公告)日:2021-01-22
申请号:CN201910179314.5
申请日:2019-03-11
Applicant: 东北大学
IPC: B25J9/16
Abstract: 本发明属于机器人操控领域,提出一种融合记忆机制的机械臂多场景快速运动规划方法。通过模拟人类的记忆机制,在建立高斯混合模型的过程中将当前场景及对应的GMM模型通过感觉记忆、短期记忆和长期记忆三个阶段存储到记忆空间,让机器人能够记住出现过的环境。当机器人遇到类似环境时,便能够根据记忆适应当前场景,快速完成运动规划。该方法使用模型进行引导机械臂在关节空间采样并代替传统的FCL方法进行碰撞检测,与RRT*算法相比,有效提高了算法的规划成功率,减少了算法的运行时间。机器人能够通过记忆机制记住所遇到的场景及其对应模型,并在遇到相似场景时通过提取对应的场景模型快速的适应环境,不需要重新训练学习,提高了规划算法的适应能力。
-
公开(公告)号:CN107229934A
公开(公告)日:2017-10-03
申请号:CN201710255005.2
申请日:2017-04-24
Applicant: 东北大学
IPC: G06K9/46
CPC classification number: G06K9/4609
Abstract: 基于最小匹配距离与随机采样一致性的错误匹配去除方法,包括如下步骤:计算出匹配数据集合中所有匹配对的匹配距离,选出其中的最小的匹配距离,将匹配距离大于最小匹配距离n倍的匹配对去除,保留剩余的匹配数据集合O,从集合O中随机选出m个不共线的样本,计算得出单应性矩阵H,记为模型M,利用模型M对O中的全部数据进行测试,并计算全部数据与模型M的投影误差,若误差小于阈值T,则将对应点加入到内点集合I,若当前内点集元素个数大于最优内点集Ibest个数,则令Ibest=I,同时更新迭代次数k,若k大于K,输出Ibest及其对应的模型M,若k小于K,则返回。本算法在保证实时性和准确性的同时,有效避免了特征点较少以及错误匹配无法去除干净的情况。
-
公开(公告)号:CN111598172A
公开(公告)日:2020-08-28
申请号:CN202010420998.6
申请日:2020-05-18
Applicant: 东北大学
Abstract: 本发明属于目标检测与机器人操作领域,公开了基于异构深度网络融合的动态目标抓取姿态快速检测方法。所述方法包括:1.动态目标样本集的制作方法;2.异构深度网络的训练方法;3.异构深度网络的融合机制;4.抓取姿态确定方法。待检测的动态目标物体,通过深度相机获取其RGB图像和深度图,然后将RGB图和深度图进行I型深度网络的目标识别,获取目标的边界框和中心区域的点云信息,然后通过异构融合机制选取合适的点云输入到II型深度网络中进行抓取姿态识别,进而得到最终的抓取姿态检测结果。该方法可以充分发挥不同深度网络的优势,可快速提取动态目标的核心特征,进而实现高效稳定的抓取姿态检测与识别。
-
公开(公告)号:CN111667099B
公开(公告)日:2023-10-10
申请号:CN202010421011.2
申请日:2020-05-18
Applicant: 东北大学
IPC: G06F18/24 , G06F18/214 , G06N3/0442 , H04W4/029 , G06F30/27 , G06F16/29
Abstract: 本发明属于目标检测与机器人操作领域,公开了基于时间粒度提升的动态目标不确定运动轨迹预测方法,包括如下步骤:利用机器人视觉处理模块采集原始运动轨迹数据通过标准化,作为训练集;通过粒度分割实现轨迹数据的粒度化;通过时间粒度提升策略,选择合适的基预测器权重系数并完成训练,构建高精度协同预测模型;通过滚动迭代和基预测器集成获得多步高精度预测值。本方法通过粒度化提取轨迹的有效特征,在保持训练时间基本不变的情况下,大幅度提高了动态目标不确定运动轨迹的预测精度和准确率,还增强了算法对噪声信息的抗干扰能力,对于后续机器人实施自主动态操作具有重要意义。
-
公开(公告)号:CN109940614A
公开(公告)日:2019-06-28
申请号:CN201910179314.5
申请日:2019-03-11
Applicant: 东北大学
IPC: B25J9/16
Abstract: 本发明属于机器人操控领域,提出一种融合记忆机制的机械臂多场景快速运动规划方法。通过模拟人类的记忆机制,在建立高斯混合模型的过程中将当前场景及对应的GMM模型通过感觉记忆、短期记忆和长期记忆三个阶段存储到记忆空间,让机器人能够记住出现过的环境。当机器人遇到类似环境时,便能够根据记忆适应当前场景,快速完成运动规划。该方法使用模型进行引导机械臂在关节空间采样并代替传统的FCL方法进行碰撞检测,与RRT*算法相比,有效提高了算法的规划成功率,减少了算法的运行时间。机器人能够通过记忆机制记住所遇到的场景及其对应模型,并在遇到相似场景时通过提取对应的场景模型快速的适应环境,不需要重新训练学习,提高了规划算法的适应能力。
-
公开(公告)号:CN111598172B
公开(公告)日:2023-08-29
申请号:CN202010420998.6
申请日:2020-05-18
Applicant: 东北大学
IPC: G06V10/774 , G06V10/82 , B25J9/16 , G06N3/0464 , G06N3/045 , G06N3/08
Abstract: 本发明属于目标检测与机器人操作领域,公开了基于异构深度网络融合的动态目标抓取姿态快速检测方法。所述方法包括:1.动态目标样本集的制作方法;2.异构深度网络的训练方法;3.异构深度网络的融合机制;4.抓取姿态确定方法。待检测的动态目标物体,通过深度相机获取其RGB图像和深度图,然后将RGB图和深度图进行I型深度网络的目标识别,获取目标的边界框和中心区域的点云信息,然后通过异构融合机制选取合适的点云输入到II型深度网络中进行抓取姿态识别,进而得到最终的抓取姿态检测结果。该方法可以充分发挥不同深度网络的优势,可快速提取动态目标的核心特征,进而实现高效稳定的抓取姿态检测与识别。
-
公开(公告)号:CN111667099A
公开(公告)日:2020-09-15
申请号:CN202010421011.2
申请日:2020-05-18
Applicant: 东北大学
Abstract: 本发明属于目标检测与机器人操作领域,公开了基于时间粒度提升的动态目标不确定运动轨迹预测方法,包括如下步骤:利用机器人视觉处理模块采集原始运动轨迹数据通过标准化,作为训练集;通过粒度分割实现轨迹数据的粒度化;通过时间粒度提升策略,选择合适的基预测器权重系数并完成训练,构建高精度协同预测模型;通过滚动迭代和基预测器集成获得多步高精度预测值。本方法通过粒度化提取轨迹的有效特征,在保持训练时间基本不变的情况下,大幅度提高了动态目标不确定运动轨迹的预测精度和准确率,还增强了算法对噪声信息的抗干扰能力,对于后续机器人实施自主动态操作具有重要意义。
-
-
-
-
-
-