基于工业机器人的活塞、活塞销和连杆装配方法及装置

    公开(公告)号:CN101913076A

    公开(公告)日:2010-12-15

    申请号:CN201010217225.4

    申请日:2010-06-23

    Abstract: 本发明涉及基于工业机器人的活塞、活塞销和连杆装配方法及装置,该方法采用视觉摄像头识别活塞、活塞销和连杆的位置和方位,在计算机中计算出抓取位置,由机械手爪抓取并放置到智能装配台上。在智能装配台的控制下将连杆插入到活塞中;工业机器人将活塞销装入到活塞装配孔中。装置中视觉摄像头识别并定位工作台上放置的活塞、活塞销和连杆;工业机器人的数据端与计算机的数据端连接;视觉摄像头与计算机连接;工业机器人控制机械手爪抓取活塞、活塞销和连杆,并放入到智能装配台中;智能装配台的串行信号线与计算机连接,智能装配台的控制电路板控制连杆夹具将连杆插入到活塞内;工业机器人根据无传感器装配方法将活塞销装配到活塞装配孔中。

    基于脉冲神经网络的视觉追踪方法、装置及电子设备

    公开(公告)号:CN118570249B

    公开(公告)日:2025-03-21

    申请号:CN202410504373.6

    申请日:2024-04-25

    Abstract: 本发明提供一种基于脉冲神经网络的视觉追踪方法、装置及电子设备,属于计算机技术领域。该方法包括:获取相邻两帧RGB图像,生成目标事件图像;将所述目标事件图像和所述相邻两帧RGB图像中的后一帧RGB图像输入至多模态追踪模型进行视觉追踪;所述多模态追踪模型包括融合模块和孪生网络模型,所述融合模块用于对所述目标事件图像和所述后一帧RGB图像进行融合得到多模态图像,所述孪生网络模型用于接收所述多模态图像,输出追踪目标在所述后一帧RGB图像中的定位结果。本发明提供的基于脉冲神经网络的视觉追踪方法,可以提高视觉追踪能力。

    轨条砦分割方法、装置、电子设备及存储介质

    公开(公告)号:CN118053085B

    公开(公告)日:2024-12-06

    申请号:CN202410293698.4

    申请日:2024-03-14

    Abstract: 本发明涉及计算机视觉技术领域,提供一种轨条砦分割方法、装置、电子设备及存储介质,基于航拍深度图像的图像信息与航拍深度图像中轨条砦区域面积占比之间的映射关系,预测目标轨条砦区域面积占比;基于当前分割阈值,对待处理航拍深度图像进行二值化分割,确定待处理航拍深度图像的当前前景区域,计算当前前景区域的面积均值的占比与目标轨条砦区域面积占比的差异信息,直至差异信息在预设范围内,或当前分割阈值在指定范围内波动,确定分割过程中差异信息最小的前景区域为待处理航拍深度图像中的目标轨条砦区域,并识别基座区域和桩柱区域。该方法具有计算速度快、所需计算资源少等优势,可快速确定轨条砦的基座和桩柱。

    机器人致摔因素确定方法、装置、介质、设备及产品

    公开(公告)号:CN118456474B

    公开(公告)日:2024-11-26

    申请号:CN202410911650.5

    申请日:2024-07-09

    Abstract: 本申请公开了一种机器人致摔因素确定方法、装置、介质、设备及产品,涉及机器人技术领域,该方法包括:基于当前摔倒的机器人各个被控单元的实际运动数据和预期运动数据,得到各个被控单元的误差向量;基于当前设定的摔倒回顾时刻和误差向量构建机器人的当前回顾数据集;基于当前回顾数据集中回顾向量之间的距离构建初始凸顶点集;基于各个回顾向量与初始凸顶点集之间的凸包距离对初始凸顶点集进行更新,得到凸顶点集;基于所述凸顶点集中各个回顾向量对应的被控单元的误差损失分数确定所述机器人的致摔因素。本申请提供的方法和装置,可以确定机器人的致摔因素,提高了致摔因素的确定效率和确定准确度,进而可以优化算法防止机器人摔倒。

    摆动腿控制方法、装置、电子设备及存储介质

    公开(公告)号:CN118295446B

    公开(公告)日:2024-10-25

    申请号:CN202410719717.5

    申请日:2024-06-05

    Abstract: 本发明提供一种摆动腿控制方法、装置、电子设备及存储介质,应用于机器人控制技术领域。该方法包括:获取人形机器人的状态数据和关节角数据;根据状态数据确定人形机器人的位姿状态信息,根据关节角数据和正向运动学确定人形机器人的足底信息;根据位姿状态信息和足底信息预测当前步态结束时的质心角动量;构建触发式采样机制调控所述质心角动量的预测计算,得到触发式角动量预测值;确定不同运动指令对应的期望角动量;根据触发式角动量预测值和期望角动量计算人形机器人的落脚点位置。

    无源域适应目标检测方法及装置

    公开(公告)号:CN117636086B

    公开(公告)日:2024-09-24

    申请号:CN202311332829.7

    申请日:2023-10-13

    Abstract: 本发明提供一种无源域适应目标检测方法及装置,包括:基于教师模型从目标域数据集的部分图像中提取的各类目标的第一实例特征,构建所述各类目标的多个特征原型;根据所述各类目标的多个特征原型,对所述教师模型获取的所述目标域数据集中各图像的目标检测结果进行纠正,得到所述各图像的伪标签;将所述目标域数据集的各图像作为样本,将所述各图像的伪标签作为标签对学生模型进行训练,使用训练后的所述学生模型检测待检测图像中的目标;所述教师模型和所述学生模型通过预先使用源域数据集对目标检测模型进行训练得到。本发明使用目标域中各类目标的多特征原型引导生成更加准确的伪标签作为模型训练的监督信息,从而提高目标检测的准确性。

    摆动腿控制方法、装置、电子设备及存储介质

    公开(公告)号:CN118295446A

    公开(公告)日:2024-07-05

    申请号:CN202410719717.5

    申请日:2024-06-05

    Abstract: 本发明提供一种摆动腿控制方法、装置、电子设备及存储介质,应用于机器人控制技术领域。该方法包括:获取人形机器人的状态数据和关节角数据;根据状态数据确定人形机器人的位姿状态信息,根据关节角数据和正向运动学确定人形机器人的足底信息;根据位姿状态信息和足底信息预测当前步态结束时的质心角动量;构建触发式采样机制调控所述质心角动量的预测计算,得到触发式角动量预测值;确定不同运动指令对应的期望角动量;根据触发式角动量预测值和期望角动量计算人形机器人的落脚点位置。

    轨条砦分割方法、装置、电子设备及存储介质

    公开(公告)号:CN118053085A

    公开(公告)日:2024-05-17

    申请号:CN202410293698.4

    申请日:2024-03-14

    Abstract: 本发明涉及计算机视觉技术领域,提供一种轨条砦分割方法、装置、电子设备及存储介质,基于航拍深度图像的图像信息与航拍深度图像中轨条砦区域面积占比之间的映射关系,预测目标轨条砦区域面积占比;基于当前分割阈值,对待处理航拍深度图像进行二值化分割,确定待处理航拍深度图像的当前前景区域,计算当前前景区域的面积均值的占比与目标轨条砦区域面积占比的差异信息,直至差异信息在预设范围内,或当前分割阈值在指定范围内波动,确定分割过程中差异信息最小的前景区域为待处理航拍深度图像中的目标轨条砦区域,并识别基座区域和桩柱区域。该方法具有计算速度快、所需计算资源少等优势,可快速确定轨条砦的基座和桩柱。

Patent Agency Ranking