一种基于臂势识别的仿人臂遥操作控制系统

    公开(公告)号:CN118752509A

    公开(公告)日:2024-10-11

    申请号:CN202410973812.8

    申请日:2024-07-19

    Abstract: 一种基于臂势识别的仿人臂遥操作控制系统,大臂IMU和小臂IMU能够实时输出手臂的位姿信息,从而确定当前手臂的臂形角;桌面级力反馈主臂能够输出操作员手部相对世界坐标系的六维空间位姿;臂形角和桌面级力反馈主臂输出的末端六维空间位姿信息用于从端机械臂的末端运动规划;桌面级力反馈主臂根据从端的末端六维力传感器反馈的力和力矩,向操作员提供力反馈触觉;数据手套的指尖和手掌处均配备有IMU传感器,能够输出操作员十个手指的运动信息,用于驱动从端末端执行器的手指精细操作;主端控制器负责主端数据采集、处理与传输;从端控制器负责从端数据采集、处理与传输。

    多轮臂机器人操作目标消旋的多接触点力分配方法和系统

    公开(公告)号:CN114670197B

    公开(公告)日:2024-07-23

    申请号:CN202210316285.4

    申请日:2022-03-28

    Abstract: 本发明公开了一种多轮臂机器人操作目标消旋的多接触点力分配方法和系统,该方法包括:通过协同调整多轮臂机器人的三条机械臂的构型,实现对目标的包络,并通过各机械臂末端的全向可控阻尼轮与目标表面接触;在被动跟随模式下,动态规划各机械臂臂力,控制各全向可控阻尼轮跟随目标旋转,实现多轮臂机器人与目标的安全柔顺接触;在主动消旋模式下,动态规划各机械臂臂力和各全向可控阻尼轮的摩擦力矩,全向可控阻尼轮施加摩擦力,释放目标角动量,实现对目标的消旋。通过本发明实现了对目标的全身柔顺接触和平稳消旋。

    一种旋转耦合双关节推挽式柔性绳索驱动方法

    公开(公告)号:CN116690548A

    公开(公告)日:2023-09-05

    申请号:CN202310418295.3

    申请日:2023-04-18

    Abstract: 一种旋转耦合双关节推挽式柔性绳索驱动方法,用于实现绳驱耦合双关节灵巧手高精度控制手指末端位置与姿态,从而实现手指与物体之间的接触位置规划和抓取姿态规划,该方法适用于绳驱灵巧手手指运动控制,或者其他绳驱智能机构的运动控制。首先利用仿真或者实验手段获得双关节的干扰力矩和最小驱动力矩,然后根据干扰力矩和最小驱动力矩建立耦合双关节推挽式绳驱控制模型,由干扰力矩控制解决双关节耦合问题,由最小驱动力矩和四个逻辑控制器解决绳子必须拉紧不能反向驱动的问题,从而获得最终手指末端位置与姿态信息,实现手指末端的高精度运动控制,为灵巧手实现多手指协同操作运动控制奠定基础。

    一种自动识别与位姿追踪的作业系统及作业方法

    公开(公告)号:CN115512210A

    公开(公告)日:2022-12-23

    申请号:CN202211017984.5

    申请日:2022-08-24

    Abstract: 本发明涉及一种自动识别与位姿追踪的作业系统及作业方法,属于图像标志识别与位姿追踪领域;机器视觉模块:360°环拍空间环境;计算模块:筛选出带有高反光标志图案的照片,并进行阈值分割,分离出高反光标志图案和背景;并采用圆环自动识别法,识别高反光标志图案的拍摄角度;通过PnP变换,获得被作业设备相对于机器人作业臂的位置信息及姿态信息;根据被作业设备的位置信息及姿态信息生成控制指令;机器人作业臂:根据控制指令动作,实现对被作业设备的捕获,并将捕获后的被作业设备与作业设备对接。本发明实现从复杂光照下的目标圆环境中分割出目标圆标志进而进行位姿解算完成空间机器人自主识别、自主追踪和对接作业过程。

    一种基于智能视觉的工业外观检测方法

    公开(公告)号:CN107657603B

    公开(公告)日:2020-07-14

    申请号:CN201710719954.1

    申请日:2017-08-21

    Abstract: 本发明提供了一种基于智能视觉的工业外观检测方法,该方法包括如下步骤:(1)、获取多个产品外观瑕疵样本,含同一个瑕疵的样本包含多个不同角度或位置拍摄的图像;(2)、对产品外观瑕疵样本中的瑕疵图像标注,确定图像中瑕疵的所属的类别;(3)、根据产品外观瑕疵样本、图像中瑕疵的类别,进行深度学习网络训练,得到产品外观深度学习模型;(4)、实时获取被测产品外观图像,采用产品外观深度学习模型,对该产品外观图像采取深度学习方法进行检测;(5)、多个角度和位置的图像被深度学习模型识别后,任一图像被识别出瑕疵,即可认为该产品存在瑕疵。本发明处理效率高,检测精度超过人类的检测精度,且检测标准统一,避免了重复性检测。

    一种基于视触觉融合机制的多机器人协同地图重建方法

    公开(公告)号:CN109934918A

    公开(公告)日:2019-06-25

    申请号:CN201910174554.6

    申请日:2019-03-08

    Abstract: 一种基于视触觉融合机制的多机器人协同地图重建方法,包括步骤如下:步骤一:对多个移动机器人进行编号,两两为一组,将移动机器人沿待建模的矩形空间平面的边缘摆放在初始位置处;步骤二:建立移动机器人坐标系;步骤三:控制每对移动机器人沿两个移动机器人的连线移动,且多组移动机器人同时以相同的速度开始移动;当任一移动机器人每次检测到有其他移动机器人出现在正前方时,则执行地图实时拼接方法;步骤四:当同一组的移动机器人相遇时,控制同一组的两个移动机器人停止运动,直至每一组移动机器人都相遇时,将所有移动机器人当中地图来源最多的移动机器人内储存的图像作为全局的地图。

    一种智能机器人集群的同时定位与建图方法

    公开(公告)号:CN109917670A

    公开(公告)日:2019-06-21

    申请号:CN201910174377.1

    申请日:2019-03-08

    Abstract: 一种智能机器人集群的同时定位与建图方法,属于机器人视觉与信息融合技术领域。本发明采用8个智能机器人集群同时对一个区域进行SLAM建模,可以解决单个智能机器人建模太慢的问题,达到对一个区域快速建模的效果。另外,本发明采用的合作二维编码定位方法与基于各个子地图数据之间的相关性来定位相应的关系的方法相比,可以解决各个智能机器人所建立的子地图具有较高的相似度时很有可能出现误匹配从而直接导致地图拼接失败的情况,具有较高的鲁棒性和较高的通用性。

    一种基于人眼注视交互的遥操作目标三维位置估计方法

    公开(公告)号:CN119027490A

    公开(公告)日:2024-11-26

    申请号:CN202410973809.6

    申请日:2024-07-19

    Abstract: 一种基于人眼注视交互的遥操作目标三维位置估计方法,包括:通过头戴式显示器内的IMU,实时计算操作员头部相对世界坐标系的姿态信息,确定头部坐标系的姿态旋转矩阵;通过头戴式显示器内的红外相机计算人眼视线相对于头部坐标系的姿态,确定人眼坐标系相对头部坐标系的姿态旋转矩阵;确定人眼坐标系相对于世界坐标系的姿态旋转矩阵,进一步确定人眼视线向量;基于人眼视线方向与从端目标和相机光心的连线方向一致,确定视线在图像上的落点即为目标在二维图像中的坐标点;根据目标在二维图像中的坐标点在从端双目相机中的坐标点、左右目内参矩阵、右目光心相对于左目光心的旋转矩阵和平移向量,求解目标的三维空间位姿信息。

    基于十字线结构光的非接触式圆柱面几何参数估计系统

    公开(公告)号:CN118274707A

    公开(公告)日:2024-07-02

    申请号:CN202311511270.4

    申请日:2023-11-13

    Abstract: 本发明公开了一种基于十字线结构光的非接触式圆柱面几何参数估计系统,包括:单目相机、十字线结构光发生器、LED照明灯和控制解算模块;其中,控制解算模块分别与单目相机、十字线结构光发生器和LED照明灯连接;单目相机、十字线结构光发生器和LED照明灯位于圆柱目标上方;圆柱目标位于十字线结构光发生器的工作范围及LED照明灯的照射范围内;十字线结构光发生器在圆柱目标上形成的十字线激光结构位于单目相机的视场范围内。通过本发明可实现对圆柱面的高精度定位与测量,具有计算精度高、运行速度快且经济成本低等优点,可应用于精密圆柱面工件检测等精密测量领域。

Patent Agency Ranking