-
公开(公告)号:CN107229904A
公开(公告)日:2017-10-03
申请号:CN201710268957.8
申请日:2017-04-24
Applicant: 东北大学
Abstract: 本发明公开了一种基于深度学习的目标检测与识别方法,是在Linux系统下,利用caffe平台搭建该模型由卷积层、池化层、RPN层、ROIs层、ROI Pooling层、全连接层、Sparse PCA层、预测窗口与预测类别输出层组成。本发明提出了多RPN层融合策略,增强了对各尺度目标的检测能力;在两个全连接层之间添加了新的Spares PCA层,在降低了计算量的同时保证了准确率;最后针对目标位置预测,提出了对数抑制方法,改进了目标位置回归算法。最终达到了在保证检测精度的同时提高检测速度的目的。本发明实现了准确快速得对感兴趣目标的检测与识别,具有重大的应用价值。
-
公开(公告)号:CN112665374B
公开(公告)日:2022-12-30
申请号:CN202110061643.7
申请日:2021-01-18
Applicant: 东北大学
Abstract: 本发明公开一种利用水冷杆测量钛渣电弧炉熔池深度的装置和方法,包括升降机、水冷杆、温度传感器、流量计、水泵和水箱,其中水冷杆为双层套筒,其中外侧入水,内侧出水,在实施方法过程中,将水冷杆伸入炉中,通过冷却水吸热使得水冷杆外壁渣、铁冷却并凝固在壁面上形成凝固层,检测外壁凝固层的分布情况,并根据分布方式测量渣层、铁水层深度及熔池在防爆孔位置处的总深度,最后可根据数值模拟所得到的熔池示意图进行深度对比,从而得到整个熔池的深度数值。本发明达到了熔池内液位深度测量效果,操作简单易行,便于更好的了解炉内熔池深度参数。
-
公开(公告)号:CN112720487B
公开(公告)日:2022-03-22
申请号:CN202011545707.2
申请日:2020-12-23
Abstract: 本申请属于工业机器人技术领域,具体涉及一种基于自适应动态力平衡的机械臂抓取方法和系统。其中的方法包括:获取目标物体的目标点云信息,通过凹包轮廓检测算法检测得到边缘轮廓信息,基于边缘轮廓信息和机械臂末端执行器两指间距离,建立目标物体的可抓取区域模型;按照预设的规则生成矩形滑框,利用最小二乘直线拟合对每一矩形滑框内左右两边的凸顶点集合进行直线拟合,基于拟合得到的两条直线间的夹角确定目标物体的可抓取位置;确定目标物体左侧边缘、右侧边缘在第一坐标轴上坐标的平均值,当平均值之差小于预设阈值时,机械臂根据可抓取位置对目标物体进行抓取。本申请方法实施简单快捷,具有较强的实时性,可准确可靠地抓取目标物体。
-
公开(公告)号:CN107229904B
公开(公告)日:2020-11-24
申请号:CN201710268957.8
申请日:2017-04-24
Applicant: 东北大学
Abstract: 本发明公开了一种基于深度学习的目标检测与识别方法,是在Linux系统下,利用caffe平台搭建该模型由卷积层、池化层、RPN层、ROIs层、ROI Pooling层、全连接层、Sparse PCA层、预测窗口与预测类别输出层组成。本发明提出了多RPN层融合策略,增强了对各尺度目标的检测能力;在两个全连接层之间添加了新的Spares PCA层,在降低了计算量的同时保证了准确率;最后针对目标位置预测,提出了对数抑制方法,改进了目标位置回归算法。最终达到了在保证检测精度的同时提高检测速度的目的。本发明实现了准确快速得对感兴趣目标的检测与识别,具有重大的应用价值。
-
公开(公告)号:CN111598172A
公开(公告)日:2020-08-28
申请号:CN202010420998.6
申请日:2020-05-18
Applicant: 东北大学
Abstract: 本发明属于目标检测与机器人操作领域,公开了基于异构深度网络融合的动态目标抓取姿态快速检测方法。所述方法包括:1.动态目标样本集的制作方法;2.异构深度网络的训练方法;3.异构深度网络的融合机制;4.抓取姿态确定方法。待检测的动态目标物体,通过深度相机获取其RGB图像和深度图,然后将RGB图和深度图进行I型深度网络的目标识别,获取目标的边界框和中心区域的点云信息,然后通过异构融合机制选取合适的点云输入到II型深度网络中进行抓取姿态识别,进而得到最终的抓取姿态检测结果。该方法可以充分发挥不同深度网络的优势,可快速提取动态目标的核心特征,进而实现高效稳定的抓取姿态检测与识别。
-
公开(公告)号:CN112720487A
公开(公告)日:2021-04-30
申请号:CN202011545707.2
申请日:2020-12-23
Abstract: 本申请属于工业机器人技术领域,具体涉及一种基于自适应动态力平衡的机械臂抓取方法和系统。其中的方法包括:获取目标物体的目标点云信息,通过凹包轮廓检测算法检测得到边缘轮廓信息,基于边缘轮廓信息和机械臂末端执行器两指间距离,建立目标物体的可抓取区域模型;按照预设的规则生成矩形滑框,利用最小二乘直线拟合对每一矩形滑框内左右两边的凸顶点集合进行直线拟合,基于拟合得到的两条直线间的夹角确定目标物体的可抓取位置;确定目标物体左侧边缘、右侧边缘在第一坐标轴上坐标的平均值,当平均值之差小于预设阈值时,机械臂根据可抓取位置对目标物体进行抓取。本申请方法实施简单快捷,具有较强的实时性,可准确可靠地抓取目标物体。
-
公开(公告)号:CN109940614B
公开(公告)日:2021-01-22
申请号:CN201910179314.5
申请日:2019-03-11
Applicant: 东北大学
IPC: B25J9/16
Abstract: 本发明属于机器人操控领域,提出一种融合记忆机制的机械臂多场景快速运动规划方法。通过模拟人类的记忆机制,在建立高斯混合模型的过程中将当前场景及对应的GMM模型通过感觉记忆、短期记忆和长期记忆三个阶段存储到记忆空间,让机器人能够记住出现过的环境。当机器人遇到类似环境时,便能够根据记忆适应当前场景,快速完成运动规划。该方法使用模型进行引导机械臂在关节空间采样并代替传统的FCL方法进行碰撞检测,与RRT*算法相比,有效提高了算法的规划成功率,减少了算法的运行时间。机器人能够通过记忆机制记住所遇到的场景及其对应模型,并在遇到相似场景时通过提取对应的场景模型快速的适应环境,不需要重新训练学习,提高了规划算法的适应能力。
-
公开(公告)号:CN111598172B
公开(公告)日:2023-08-29
申请号:CN202010420998.6
申请日:2020-05-18
Applicant: 东北大学
IPC: G06V10/774 , G06V10/82 , B25J9/16 , G06N3/0464 , G06N3/045 , G06N3/08
Abstract: 本发明属于目标检测与机器人操作领域,公开了基于异构深度网络融合的动态目标抓取姿态快速检测方法。所述方法包括:1.动态目标样本集的制作方法;2.异构深度网络的训练方法;3.异构深度网络的融合机制;4.抓取姿态确定方法。待检测的动态目标物体,通过深度相机获取其RGB图像和深度图,然后将RGB图和深度图进行I型深度网络的目标识别,获取目标的边界框和中心区域的点云信息,然后通过异构融合机制选取合适的点云输入到II型深度网络中进行抓取姿态识别,进而得到最终的抓取姿态检测结果。该方法可以充分发挥不同深度网络的优势,可快速提取动态目标的核心特征,进而实现高效稳定的抓取姿态检测与识别。
-
公开(公告)号:CN111667099A
公开(公告)日:2020-09-15
申请号:CN202010421011.2
申请日:2020-05-18
Applicant: 东北大学
Abstract: 本发明属于目标检测与机器人操作领域,公开了基于时间粒度提升的动态目标不确定运动轨迹预测方法,包括如下步骤:利用机器人视觉处理模块采集原始运动轨迹数据通过标准化,作为训练集;通过粒度分割实现轨迹数据的粒度化;通过时间粒度提升策略,选择合适的基预测器权重系数并完成训练,构建高精度协同预测模型;通过滚动迭代和基预测器集成获得多步高精度预测值。本方法通过粒度化提取轨迹的有效特征,在保持训练时间基本不变的情况下,大幅度提高了动态目标不确定运动轨迹的预测精度和准确率,还增强了算法对噪声信息的抗干扰能力,对于后续机器人实施自主动态操作具有重要意义。
-
公开(公告)号:CN110653820A
公开(公告)日:2020-01-07
申请号:CN201910930621.2
申请日:2019-09-29
Applicant: 东北大学
IPC: B25J9/16
Abstract: 一种结合几何约束的机器人抓取位姿估计方法,属于机器人视觉抓取技术领域。本发明利用夹持器简化形状约束生成初始抓取位姿,能够生成包含稳定抓取位姿的抓取样本;之后通过力封闭约束快速进行半稳定抓取位姿筛选,之后利用力平衡约束分析半稳定抓取位姿,估计出目标物体稳定的抓取位姿;本发明适用于不同物体的抓取位姿估计,在一秒内能够估计出稳定的抓取位姿,计算效率高,更改算法中夹持器的参数,可以应用到其他类型夹持器,算法具有适用性。
-
-
-
-
-
-
-
-
-