-
公开(公告)号:CN111476909A
公开(公告)日:2020-07-31
申请号:CN202010142759.9
申请日:2020-03-04
Applicant: 哈尔滨工业大学
Abstract: 本发明公开了一种基于虚拟现实弥补时延的遥操作控制方法及系统。该方法包括:根据位于从端的RCM机构和位于从端的实际相机建立初始虚拟机器人模型、虚拟相机和背景图像;获取主手位置信息;将主手位置信息映射到初始虚拟机器人模型中的关节运动上,得到实时更新的虚拟机器人模型;获取从端场景图像特征角点;计算虚拟机器人模型的虚拟角点;由从端场景图像特征角点和虚拟角点对虚拟仿真模型进行修正,得到修正后的虚拟仿真模型;由修正后的虚拟仿真模型、虚拟相机和背景图像得到更新后的三维虚拟场景模型,以实现遥操作。本发明能够实现三维虚拟模型的构建,在提高控制精度的同时,增强遥操作的真实感。
-
公开(公告)号:CN111360879A
公开(公告)日:2020-07-03
申请号:CN202010102958.7
申请日:2020-02-19
Applicant: 哈尔滨工业大学
Abstract: 本发明公开一种基于测距传感器和视觉传感器的视觉伺服自动定位装置,属于机器人视觉伺服目标定位系统及机器人标定技术领域,包括集成模具、视觉传感器和至少两个测距传感器,视觉传感器和测距传感器集成安装于集成模具上,集成模具的顶部设置有用于与机器人的机械臂末端连接块连接的固定转接板;视觉传感器和测距传感器均与一主控器信号连接。本发明中视觉传感器与测距传感器可以同时将图像信息与距离信息传递给主控器,为对目标物体位置和姿态进行高精度定位提供了可能,具有集成性,安装方便,易于视觉信息与测距信息的融合集成,可同时满足伺服中对于机器人姿态控制的简单性,精确性以及稳定性要求,实用性强。
-
公开(公告)号:CN111360851A
公开(公告)日:2020-07-03
申请号:CN202010101209.2
申请日:2020-02-19
Applicant: 哈尔滨工业大学
Abstract: 本发明公开一种融合触觉和视觉的机器人混合伺服控制装置及方法,所述装置包括:RGBD相机、图像处理模块和伺服控制器;RGBD相机分别采集目标物体周围的环境信息和目标物体到深度摄像头的距离;图像处理模块采用快速SIFT特征提取模板匹配方法,基于所述模板图像将所述环境图像中的各点和所述深度图像中的各点一一对应,实现对目标物体进行定位,获得实际的目标物体像素坐标和目标物体深度;伺服控制器根据实际的目标物体像素坐标和目标物体深度确定机器人各关节期望输出角速度,并根据所述机器人各关节期望输出角速度控制所述机器人运动。本发明融合触觉和视觉实现对机器人的控制,提高了对机器人控制的准确性和安全性。
-
公开(公告)号:CN111360827A
公开(公告)日:2020-07-03
申请号:CN202010151757.6
申请日:2020-03-06
Applicant: 哈尔滨工业大学
IPC: B25J9/16
Abstract: 本发明公开了一种视觉伺服切换控制方法及系统。该方法包括:确定带有二维码的图像特征点的实际坐标和实际相机位姿;图像特征点的实际坐标与图像边界的距离大于边界阈值,则采用基于图像特征的视觉伺服控制方法计算机械臂第一关节角速度,根据第一关节角速度对机器人进行控制;在图像特征点的实际坐标与图像边界的距离是否等于边界阈值,区分计算哪种关节角速度;在相邻两次轴角误差的李雅普诺夫函数值差值小于或等于0,并且在基于图像特征的视觉伺服控制运行时间大于运行时间阈值时,采用基于图像位置的视觉伺服控制方法计算第二关节角速度。采用本发明的方法及系统,具有能够增强机器人控制系统稳定性,改善视觉伺服效果的优点。
-
公开(公告)号:CN111360820A
公开(公告)日:2020-07-03
申请号:CN202010099117.5
申请日:2020-02-18
Applicant: 哈尔滨工业大学
IPC: B25J9/16
Abstract: 本发明涉及一种距离空间和图像特征空间融合的视觉伺服方法,所述方法包括:构建图像雅克比矩阵;构建深度雅克比矩阵;将所述图像雅克比矩阵和所述深度雅克比矩阵融合,得到混合视觉伺服雅克比矩阵;基于所述混合视觉伺服雅克比矩阵采用控制算法得到机器人运动的控制量,从而使得机器人运动到目标位置,完成精确定位。本发明中的上述方法避免了传统雅可比矩阵的奇异和局部最小值等问题。融合了互补的图像特征空间和距离空间,在信息不冗余的情况下,弥补了视觉信息中的不足,系统实时采集数据,在简单的控制算法下,即可快速完成视觉伺服任务。
-
公开(公告)号:CN106730106B
公开(公告)日:2019-10-08
申请号:CN201611054854.3
申请日:2016-11-25
Applicant: 哈尔滨工业大学
IPC: A61M5/00
Abstract: 机器人辅助的显微注射系统的坐标标定方法,属于显微注射系统的坐标标定方法领域。现有的显微注射系统存在针尖移动定位效率低的问题。一种机器人辅助的显微注射系统的坐标标定方法,在当前视野区域的点阵选取M个点作为标定点,按设定的时间最优的路线操作机械臂,使针尖经过这些标定点并获得清晰图像,然后移动载物台到下一个视野区域,重复以上步骤完成N个视野区域,并记录第j个视野区域中点对应的机械臂坐标;计算坐标变换矩阵;期望针尖坐标和坐标变换矩阵计算得到对应的机械臂坐标,之后操作机械臂移动,使微量吸液管针尖能够移动到期望位置处。本发明具有避免重复定位问题、定位准确和工作效率高的优点。
-
公开(公告)号:CN108670411B
公开(公告)日:2019-08-02
申请号:CN201810565716.4
申请日:2018-06-04
Applicant: 哈尔滨工业大学
IPC: A61B34/30
Abstract: 一种利用双倍行程弧形滑轨的空间远心点运动机构,本发明涉及机构学,本发明解决远心点运动机构输出构件可以绕空间中某固定点转动以及沿着过该固定点的轴线移动,然而在此固定点处并没有实际的运动副存在。它包括:支架、竖直转轴机构、竖直转动架机构、双倍行程弧形滑轨、直线运动机构。支架用来支撑所有旋转构件;竖所述竖直转轴机构的上端与支架上端伸出部固定连接,竖直转轴机构转动输出端与竖直转动架机构转动连接;竖直转动架机构与固定滑块一个侧面固定连接;固定滑块的另一个侧面与双倍行程弧形滑轨的一个侧面滑动连接;双倍行程弧形滑轨的另一个侧面与动滑块一个侧面滑动连接;动滑块的另一个侧面与直线运动机构固定连接。本发明属于医疗机器人领域。
-
公开(公告)号:CN109318235A
公开(公告)日:2019-02-12
申请号:CN201811333889.X
申请日:2018-11-09
Applicant: 哈尔滨工业大学
Abstract: 一种机器人视觉伺服系统的快速聚焦方法,属于图像处理领域。现有的机械式聚焦技术,存在变焦能力差、速度慢的问题,难以满足视觉伺服实时性要求。本发明方法为机器人机械臂末端相机安装液态镜头;多次采集获得图像时的液态镜头的电流,以及相机与目标物体之间的距离数据;确定最大锐度的图像及对应的液态镜头的电流以及相机与目标物体之间的距离数据;重复上述内容,获得多组最大锐度的电流及距离数据,建立最大锐度的电流与距离之间的关系模型,通过系统辨识方法得到模型参数;利用建立的关系模型,结合距离信息,得到液态镜头变焦所需的电流值,进而控制液态镜头进行变焦。本发明方法保证视觉伺服系统的快速聚焦,和目标物体成像清晰度。
-
公开(公告)号:CN106845033B
公开(公告)日:2019-01-18
申请号:CN201710148761.5
申请日:2017-03-13
Applicant: 哈尔滨工业大学
IPC: G06F17/50
Abstract: 一种基于视觉的喷漆喷枪扇面角度与均匀度建模方法,本发明涉及喷漆喷枪扇面角度与均匀度建模方法。本发明是为了解决现有技术准确度低、成本高的问题。依靠可靠的视觉检测装置与视觉检测算法,对喷枪扇面的角度与均匀度进行精确的识别,并提出一种评价标准。之后通过模式识别的方法,建立喷枪扇面角度,均匀度与喷枪扇面压力,雾化压力之间的模型关系。发明能够为工人提供可靠的喷枪扇面参数,并对如何调整扇面压力,雾化压力以得到更均匀更适合的喷枪扇面做出了指导作用,本发明能够明显提高生产效率,提高加工精度,节省加工时间,加工成本。本发明应用于汽车自动喷漆领域。
-
公开(公告)号:CN106952280A
公开(公告)日:2017-07-14
申请号:CN201710148762.X
申请日:2017-03-13
Applicant: 哈尔滨工业大学
Abstract: 一种基于计算机视觉的喷枪喷漆量均匀度检测方法,本发明涉及喷枪喷漆量均匀度检测方法。本发明是为了解决现有技术成本高昂和具有不确定性的问题。本发明步骤为:步骤一:喷枪喷雾扇面检测;采集一幅图像,调节摄像机、喷枪与背景之间的距离;对图像进行预处理;对图像进行二值化处理;提取出扇面边缘直线所在像素位置,计算两条直线夹角;以两条直线的终点的连线将区域封闭作为喷漆区域,标记喷雾区域内的像素点;步骤二:喷枪喷雾均匀性分析;对预处理后的灰度图像进行分析;通过标记的喷雾区域内每一行的像素值的大小描述均匀度;通过特征样本数据画出直方图与均匀分布概率模型作比较判断均匀性。本发明应用于喷漆领域。
-
-
-
-
-
-
-
-
-