一种基于位置速度控制的遥操作机器人碰撞预警方法

    公开(公告)号:CN105911995A

    公开(公告)日:2016-08-31

    申请号:CN201610429644.1

    申请日:2016-06-16

    Applicant: 吉林大学

    CPC classification number: G05D1/0276 G05D2201/0207

    Abstract: 本发明提供一种基于位置速度控制的遥操作机器人碰撞预警方法,其步骤包括:首先将主手控制器视为积分器,通过位置积分计算出对机器人位置的期望值,实现机器人任务速度与手控器位置的有效对应,然后根据手控器位置信号主动预测出未来时刻机器人的位置,当机器人与环境临近碰撞状态时生成预警力,最后将反馈力与操作者手动控制力进行融合,引导操作者控制机器人避开障碍物,完成作业过程。本发明可将人类智能决策与机器智能相结合,有效提高机器人的作业精度与效率,减轻操作者的作业负担,降低对操作者技术熟练度的依赖,避免系统延时导致对机器人控制的盲目性。

    一种基于深度学习的机器人多物体分拣方法

    公开(公告)号:CN113284179A

    公开(公告)日:2021-08-20

    申请号:CN202110575065.9

    申请日:2021-05-26

    Applicant: 吉林大学

    Abstract: 本发明公开了一种基于深度学习的机器人多物体分拣方法,所述分拣方法具体步骤如下:首先利用旋转目标检测网络检测任务场景中目标物体的类别、位置及旋转角度;之后通过实例分割网络分割出物体表面像素,利用相机标定、主成分分析法和欧拉角法对分割出的像素进行处理,获得目标物体的姿态;然后通过基于先验知识的物体分拣次序推理算法获得物体的分拣次序;最后机器人根据获得的物体分拣次序和位姿,自主完成多物体分拣任务。本发明基于深度学习的方法实现了场景中物体位姿和分拣次序的获取,使机器人能够在非结构化场景中对堆叠的多物体进行安全、稳定和准确的分拣操作。

    一种面向未知环境的六自由度机器人力控方法

    公开(公告)号:CN111624941A

    公开(公告)日:2020-09-04

    申请号:CN202010539862.7

    申请日:2020-06-15

    Applicant: 吉林大学

    Abstract: 本发明公开了一种面向未知环境的六自由度机器人力控方法,属于机器人运动的柔顺控制领域,所述控制方法具体步骤如下:首先,获取力传感器零点数据、机器人腕部工具重力及重心坐标,确定机器人腕部工具与环境接触时产生的真实力与力矩;然后,通过机器人腕部工具与环境接触时产生的真实力与力矩,确定机器人末端运动的位控方向和力控方向;最后,获取机器人运动的参考轨迹,确定阻抗控制模型,完成机器人力控作业。本发明提出了通过对力传感器在线标定的方式,提高了力传感器的测量精度,为机器人的力控作业提供了准确的力觉感知信息,采用阻抗控制策略,来控制机器人的运动轨迹,在力控与位控之间的转换稳定,适应能力和鲁棒性较好。

    一种基于位置速度控制的遥操作机器人碰撞预警方法

    公开(公告)号:CN105911995B

    公开(公告)日:2018-06-15

    申请号:CN201610429644.1

    申请日:2016-06-16

    Applicant: 吉林大学

    Abstract: 本发明提供一种基于位置速度控制的遥操作机器人碰撞预警方法,其步骤包括:首先将主手控制器视为积分器,通过位置积分计算出对机器人位置的期望值,实现机器人任务速度与手控器位置的有效对应,然后根据手控器位置信号主动预测出未来时刻机器人的位置,当机器人与环境临近碰撞状态时生成预警力,最后将反馈力与操作者手动控制力进行融合,引导操作者控制机器人避开障碍物,完成作业过程。本发明可将人类智能决策与机器智能相结合,有效提高机器人的作业精度与效率,减轻操作者的作业负担,降低对操作者技术熟练度的依赖,避免系统延时导致对机器人控制的盲目性。

    一种面向任意物体基于深度学习和图像处理的人机交互方法

    公开(公告)号:CN117021099A

    公开(公告)日:2023-11-10

    申请号:CN202311059633.5

    申请日:2023-08-22

    Applicant: 吉林大学

    Inventor: 黄玲涛 杨帆

    Abstract: 本发明公开一种面向任意物体基于深度学习和图像处理的人机交互方法,首先利用MediaPipe模型检测交互者的身体节点坐标和坐标关系判断交互者状态;之后按交互者的不同状态,采取显著性与边缘检测算法或区域生长算法确定潜在任务目标区域;然后通过OpenCV图像处理方法及深度图像信息,求得目标区域的大小,通过像素——世界坐标系转换求得物体姿态;接着通过目标区域的尺寸及填充度判断交互者是否持物,通过交互者手的位置及物体尺寸、机械臂手爪尺寸信息判断是否能进行交互;最后机器人根据获得的物体位置、姿态,完成未知物体人机交互任务。本方法实现了场景中未知物体坐标和姿态的获取,使机器人能够面对任何物体,无需训练可安全、稳定和准确的人机交互操作。

    一种基于视觉的Stewart机构位姿确定方法

    公开(公告)号:CN115187651A

    公开(公告)日:2022-10-14

    申请号:CN202210805198.5

    申请日:2022-07-08

    Applicant: 吉林大学

    Abstract: 本发明适用于机构学与机器视觉的交叉技术领域,提供了一种基于视觉的Stewart机构位姿确定方法,包括双目视觉系统的搭建、最优视场求取、双目视觉系统的标定、深度求取和实验验证等步骤。本发明中的一种基于视觉的Stewart机构位姿确定方法,以Stewart机构工作空间特性为基础,结合景深、焦距、视场角和光心距离等与摄像机特性有关的参数,建立最佳视场和ArUco标识;以张正友法结合Stewart机构工作空间特点进行双目视觉系统标定;采用最小二乘法求取对象的深度信息,通过P4P方法获得平台上表面的位置信息。以视场优化的方法解决图像处理速度与定位精度之间的矛盾,以双目视觉技术克服单目视觉技术在ArUco码深度信息精度不足的缺陷,从而获得高速高精度的视觉伺服效果。

    一种基于重力补偿的六自由度串联机器人柔顺控制方法

    公开(公告)号:CN110666799A

    公开(公告)日:2020-01-10

    申请号:CN201910975566.9

    申请日:2019-10-15

    Applicant: 吉林大学

    Abstract: 本发明公开了一种基于重力补偿的六自由度串联机器人柔顺控制方法,属于机器人运动的柔顺控制领域,所述控制方法具体步骤如下:获取机器人底座安装倾角与末端工具重力,获取力传感器的零点数据与末端工具重心在传感器坐标系下的坐标,利用机器人姿态变换矩阵,获取机器人在不同姿态下的重力补偿值,通过导纳控制方法,将力偏差作为控制系统的输入来调整机器人的末端位置。本发明提出了通过对力传感器重力补偿的方式,提高传感器对环境感知力的精度,为机器人的柔顺控制提供了精准的数据基础,采用导纳控制策略,使运动控制的误差来自机械人的位置控制精度,降低了误差,并且不需要建立精确的动力学模型,减少了计算量,鲁棒性较强。

    一种基于虎克铰被动旋转的UPU型Stewart平台支链角速度计算方法

    公开(公告)号:CN118277716A

    公开(公告)日:2024-07-02

    申请号:CN202410371480.6

    申请日:2024-03-29

    Applicant: 吉林大学

    Abstract: 本公开提供了一种基于虎克铰被动旋转的UPU型Stewart平台支链角速度计算方法,包括:确定虎克铰的输出角度旋转关系;确定整个支链法向角速度;确定三个欧拉角α、β和γ的角速度;根据三个欧拉角的角速度确定下支链轴向角速度,进而确定下支链的角速度;确定上支链相对上铰点坐标系的法向角速度,进而确定上支链相对上铰点坐标系的轴线角速度,变换到世界坐标系下,得到上支链的绝对角速度。本公开从虎克铰被动旋转的性质出发,首先推导了虎克铰被动旋转的输出角度关系,并建立其与ZXZ欧拉角之间的联系,利用此关系和虎克铰的被动旋转的性质,求解UPU型Stewart平台支链完整角速度,能够简单直观正确地求解出Stewart平台上、下支链的角速度,为UPU型Stewart平台的运动学和动力学研究提供了理论基础。

    一种基于深度学习的机器人多物体分拣方法

    公开(公告)号:CN113284179B

    公开(公告)日:2022-09-13

    申请号:CN202110575065.9

    申请日:2021-05-26

    Applicant: 吉林大学

    Abstract: 本发明公开了一种基于深度学习的机器人多物体分拣方法,所述分拣方法具体步骤如下:首先利用旋转目标检测网络检测任务场景中目标物体的类别、位置及旋转角度;之后通过实例分割网络分割出物体表面像素,利用相机标定、主成分分析法和欧拉角法对分割出的像素进行处理,获得目标物体的姿态;然后通过基于先验知识的物体分拣次序推理算法获得物体的分拣次序;最后机器人根据获得的物体分拣次序和位姿,自主完成多物体分拣任务。本发明基于深度学习的方法实现了场景中物体位姿和分拣次序的获取,使机器人能够在非结构化场景中对堆叠的多物体进行安全、稳定和准确的分拣操作。

    基于模糊补偿和卡尔曼滤波的传感器角度测量优化方法

    公开(公告)号:CN109556606A

    公开(公告)日:2019-04-02

    申请号:CN201811436790.2

    申请日:2018-11-28

    Applicant: 吉林大学

    Abstract: 本发明展示一种基于模糊补偿和卡尔曼滤波的传感器角度测量优化方法,其针对廉价九轴陀螺仪在使用中存在测量误差较大问题,提出一种模糊补偿与卡尔曼滤波相结合的优化方法,在分别获得陀螺仪和加速度计旋转某一角度时的误差量后,将误差量作为模糊补偿的补偿量,进而获得陀螺仪和加速度计模糊补偿后的旋转角度,再利用卡尔曼滤波方法将模糊补偿后的旋转角度融合成最终的旋转角度,并将融合后的旋转角度作为传感器的最终输出值。本发明能够有效减小廉价九轴陀螺仪在旋转过程中产生的角度误差,提高陀螺仪的精度和稳定性。

Patent Agency Ranking