一种面向物体的视觉SLAM轻量化语义地图创建方法

    公开(公告)号:CN113160401A

    公开(公告)日:2021-07-23

    申请号:CN202110331113.X

    申请日:2021-03-29

    Applicant: 东北大学

    Abstract: 本发明公开了一种面向物体的视觉SLAM轻量化语义地图创建方法,通过几何SLAM和语义目标检测为图像中物体分配对应的三维点云以初始化物体;采用非参数统计和参数统计进行物体数据关联以更新物体数据库;利用对离异点鲁棒的孤立森林算法估计物体初始位置和尺寸,通过线段对齐算法估计物体方向,并同相机位姿一起联合优化得到准确的物体9自由度位姿;采用三维立方框和二次曲面对物体进行建模,创建面向物体的轻量化语义地图。本发明克服了多物体、多类别、无规律环境下的数据关联与物体数据库更新存在的困难,并解决了在相机运动快速、物体遮挡情况下的物体位姿估计,极大地提升了机器人对环境的理解能力。

    基于自适应动态力平衡的机械臂抓取方法和系统

    公开(公告)号:CN112720487A

    公开(公告)日:2021-04-30

    申请号:CN202011545707.2

    申请日:2020-12-23

    Abstract: 本申请属于工业机器人技术领域,具体涉及一种基于自适应动态力平衡的机械臂抓取方法和系统。其中的方法包括:获取目标物体的目标点云信息,通过凹包轮廓检测算法检测得到边缘轮廓信息,基于边缘轮廓信息和机械臂末端执行器两指间距离,建立目标物体的可抓取区域模型;按照预设的规则生成矩形滑框,利用最小二乘直线拟合对每一矩形滑框内左右两边的凸顶点集合进行直线拟合,基于拟合得到的两条直线间的夹角确定目标物体的可抓取位置;确定目标物体左侧边缘、右侧边缘在第一坐标轴上坐标的平均值,当平均值之差小于预设阈值时,机械臂根据可抓取位置对目标物体进行抓取。本申请方法实施简单快捷,具有较强的实时性,可准确可靠地抓取目标物体。

    一种面向物体的视觉SLAM轻量化语义地图创建方法

    公开(公告)号:CN113160401B

    公开(公告)日:2023-11-17

    申请号:CN202110331113.X

    申请日:2021-03-29

    Applicant: 东北大学

    Abstract: 本发明公开了一种面向物体的视觉SLAM轻量化语义地图创建方法,通过几何SLAM和语义目标检测为图像中物体分配对应的三维点云以初始化物体;采用非参数统计和参数统计进行物体数据关联以更新物体数据库;利用对离异点鲁棒的孤立森林算法估计物体初始位置和尺寸,通过线段对齐算法估计物体方向,并同相机位姿一起联合优化得到准确的物体9自由度位姿;采用三维立方框和二次曲面对物体进行建模,创建面向物体的轻量化语义地图。本发明克服了多物体、多类别、无规律环境下的数据关联与物体数据库更新存在的困难,并解决了在相机运动快速、物体遮挡情况下的物体位姿估计,极大地提升了机器人对环境的理解能力。

    基于异构深度网络融合的动态目标抓取姿态快速检测方法

    公开(公告)号:CN111598172B

    公开(公告)日:2023-08-29

    申请号:CN202010420998.6

    申请日:2020-05-18

    Applicant: 东北大学

    Abstract: 本发明属于目标检测与机器人操作领域,公开了基于异构深度网络融合的动态目标抓取姿态快速检测方法。所述方法包括:1.动态目标样本集的制作方法;2.异构深度网络的训练方法;3.异构深度网络的融合机制;4.抓取姿态确定方法。待检测的动态目标物体,通过深度相机获取其RGB图像和深度图,然后将RGB图和深度图进行I型深度网络的目标识别,获取目标的边界框和中心区域的点云信息,然后通过异构融合机制选取合适的点云输入到II型深度网络中进行抓取姿态识别,进而得到最终的抓取姿态检测结果。该方法可以充分发挥不同深度网络的优势,可快速提取动态目标的核心特征,进而实现高效稳定的抓取姿态检测与识别。

    基于时间粒度提升的动态目标不确定运动轨迹预测方法

    公开(公告)号:CN111667099A

    公开(公告)日:2020-09-15

    申请号:CN202010421011.2

    申请日:2020-05-18

    Applicant: 东北大学

    Abstract: 本发明属于目标检测与机器人操作领域,公开了基于时间粒度提升的动态目标不确定运动轨迹预测方法,包括如下步骤:利用机器人视觉处理模块采集原始运动轨迹数据通过标准化,作为训练集;通过粒度分割实现轨迹数据的粒度化;通过时间粒度提升策略,选择合适的基预测器权重系数并完成训练,构建高精度协同预测模型;通过滚动迭代和基预测器集成获得多步高精度预测值。本方法通过粒度化提取轨迹的有效特征,在保持训练时间基本不变的情况下,大幅度提高了动态目标不确定运动轨迹的预测精度和准确率,还增强了算法对噪声信息的抗干扰能力,对于后续机器人实施自主动态操作具有重要意义。

    基于自适应动态力平衡的机械臂抓取方法和系统

    公开(公告)号:CN112720487B

    公开(公告)日:2022-03-22

    申请号:CN202011545707.2

    申请日:2020-12-23

    Abstract: 本申请属于工业机器人技术领域,具体涉及一种基于自适应动态力平衡的机械臂抓取方法和系统。其中的方法包括:获取目标物体的目标点云信息,通过凹包轮廓检测算法检测得到边缘轮廓信息,基于边缘轮廓信息和机械臂末端执行器两指间距离,建立目标物体的可抓取区域模型;按照预设的规则生成矩形滑框,利用最小二乘直线拟合对每一矩形滑框内左右两边的凸顶点集合进行直线拟合,基于拟合得到的两条直线间的夹角确定目标物体的可抓取位置;确定目标物体左侧边缘、右侧边缘在第一坐标轴上坐标的平均值,当平均值之差小于预设阈值时,机械臂根据可抓取位置对目标物体进行抓取。本申请方法实施简单快捷,具有较强的实时性,可准确可靠地抓取目标物体。

    基于异构深度网络融合的动态目标抓取姿态快速检测方法

    公开(公告)号:CN111598172A

    公开(公告)日:2020-08-28

    申请号:CN202010420998.6

    申请日:2020-05-18

    Applicant: 东北大学

    Abstract: 本发明属于目标检测与机器人操作领域,公开了基于异构深度网络融合的动态目标抓取姿态快速检测方法。所述方法包括:1.动态目标样本集的制作方法;2.异构深度网络的训练方法;3.异构深度网络的融合机制;4.抓取姿态确定方法。待检测的动态目标物体,通过深度相机获取其RGB图像和深度图,然后将RGB图和深度图进行I型深度网络的目标识别,获取目标的边界框和中心区域的点云信息,然后通过异构融合机制选取合适的点云输入到II型深度网络中进行抓取姿态识别,进而得到最终的抓取姿态检测结果。该方法可以充分发挥不同深度网络的优势,可快速提取动态目标的核心特征,进而实现高效稳定的抓取姿态检测与识别。

    基于时间粒度提升的动态目标不确定运动轨迹预测方法

    公开(公告)号:CN111667099B

    公开(公告)日:2023-10-10

    申请号:CN202010421011.2

    申请日:2020-05-18

    Applicant: 东北大学

    Abstract: 本发明属于目标检测与机器人操作领域,公开了基于时间粒度提升的动态目标不确定运动轨迹预测方法,包括如下步骤:利用机器人视觉处理模块采集原始运动轨迹数据通过标准化,作为训练集;通过粒度分割实现轨迹数据的粒度化;通过时间粒度提升策略,选择合适的基预测器权重系数并完成训练,构建高精度协同预测模型;通过滚动迭代和基预测器集成获得多步高精度预测值。本方法通过粒度化提取轨迹的有效特征,在保持训练时间基本不变的情况下,大幅度提高了动态目标不确定运动轨迹的预测精度和准确率,还增强了算法对噪声信息的抗干扰能力,对于后续机器人实施自主动态操作具有重要意义。

Patent Agency Ranking