-
公开(公告)号:CN115783318A
公开(公告)日:2023-03-14
申请号:CN202211551981.X
申请日:2022-12-05
Applicant: 之江实验室
Abstract: 本说明书公开了一种气浮台及其控制方法、装置、存储介质及电子设备。该气浮台包括:底层、旋转层以及气浮转台,气浮转台设置在所述底层以及所述旋转层之间,底层设置有指定数量的气浮轴承,姿态调整风扇以及位置调整风扇,气浮轴承设用于支撑所述气浮台离开支撑面,姿态调整风扇设置在底层下方的平台边缘,用于对所述底层的姿态进行调整,以使底层在旋转层的旋转过程中始终保持目标姿态,位置调整风扇设置在底层上方的平台边缘,用于对底层的位置进行调整,以使底层在旋转层的旋转过程中始终处于目标位置,旋转层设置有承载平台、动量轮组件以及动量轮卸载风扇,承载平台设置在旋转层的最上方,用于承载航天设备。
-
公开(公告)号:CN114092561A
公开(公告)日:2022-02-25
申请号:CN202210076234.9
申请日:2022-01-24
Applicant: 之江实验室
Abstract: 本发明公开了一种基于多目相机的无纹理三维物体跟踪方法及装置,该方法包括:获取第一位姿,其中所述第一位姿为目标物体上一帧在各相机坐标系下的位姿;将所述第一位姿转换到物体中心坐标系下,得到第二位姿;建立所述物体中心坐标系下的相机投影模型;根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数;将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变换增量;将所述位姿变换增量转换到各相机坐标系下并对所述第一位姿进行更新,从而实现物体跟踪。本发明采用多目跟踪的方法,将各个相机的图像信息与坐标系信息建立在同一框架下,得到更加准确的跟踪结果。
-
公开(公告)号:CN115990883A
公开(公告)日:2023-04-21
申请号:CN202310085704.2
申请日:2023-01-12
Applicant: 之江实验室
IPC: B25J9/16
Abstract: 本说明书公开了一种机器人的控制方法及装置,可以根据视觉传感器对目标物进行定位,得到定位结果,并根据该定位结果,控制机器人接近目标物,而后,若根据视觉传感器的定位结果,确定机器人位于距离目标物的预设距离范围内,监测力传感器测量得到的机器人被施加的外力,进而根据外力以及定位结果,确定机器人接近目标物所需的加速度,并根据该加速度,计算出相应的速度和位置增量,控制机器人不断接近目标物,直到监测到机器人接触到目标物,调整机器人持有的指定工具与目标物之间的角度,以通过机器人执行针对目标物的操作,结合力传感器与视觉传感器共同控制机器人进行针对目标物的操作,避免损坏工具或目标物,达到柔顺操控的效果。
-
公开(公告)号:CN115908485A
公开(公告)日:2023-04-04
申请号:CN202211348852.0
申请日:2022-10-31
Applicant: 之江实验室
Abstract: 本发明公开了一种面向太空中非合作目标的实时位姿跟踪方法,包括:对相机拍摄到的原始RGB图像进行目标检测与实例分割,确定待跟踪物体的目标区域;提取所述目标区域的关键点信息,所述关键点信息包括关键点的位置及关键点的特征向量;匹配当前帧与前一帧的关键点,即对当前帧和前一帧的关键点特征值进行更新,将更新后的所述当前帧的关键点与前一帧的关键点进行匹配,并剔除误匹配点对,得到优化后的匹配结果;计算所述当前帧的位姿;利用历史帧的数据,对所述当前帧的位姿进行优化。本发明使用相邻帧关键点匹配的方式计算相对位姿,不需要在跟踪过程中实时对目标进行建模,有效避免了引入建模误差,提高了位姿生成速率,减少了燃料消耗。
-
公开(公告)号:CN113240717B
公开(公告)日:2022-12-23
申请号:CN202110609753.2
申请日:2021-06-01
Applicant: 之江实验室
Abstract: 本发明公开了一种基于三维目标跟踪的误差建模位置修正方法,基于三维跟踪的结果,根据特定算法特定物体的误差分布曲线,对三维目标跟踪的误差分布进行建模,进而修正三维跟踪的位置信息,得到三维物体在空间中更准确的位置信息。本发明的实现方法便捷、高效、计算简单,使三维位置信息的精度得到可靠的保证。
-
公开(公告)号:CN117011389A
公开(公告)日:2023-11-07
申请号:CN202310604013.9
申请日:2023-05-26
Abstract: 本发明涉及一种基于深度数据直接优化的三维跟踪方法,属于三维跟踪技术领域。三维跟踪方法步骤如下:(1)读入相机参数配置文件;(2)初始化相机内参矩阵;(3)给定初始位姿,三维模型和深度图;(4)通过基于深度数据的位姿扰动模型估计下一帧的位姿;(5)重复步骤(4),继续跟踪。本发明为深度数据引入了扰动模型,无需寻找三维点的对应关系,提高了跟踪精度。
-
公开(公告)号:CN116245961B
公开(公告)日:2023-09-01
申请号:CN202310218455.X
申请日:2023-03-02
Applicant: 之江实验室
Abstract: 一种基于多类传感器信息的融合感知方法,包括硬件同步触发传感器在同一时刻采集数据;时间软同步对齐不同类型传感器发布信息的时间戳;空间同步计算传感器标定参数;利用双目深度恢复、点云滤波、点云配准等技术实现点云拼接;三维点云投影至二维像素平面,实现图像信息重合视野部分的融合;通过语义信息建立不同像素坐标系下像素点的映射关系,实现图像信息非重合视野部分的融合。还包括一种基于多类传感器信息的融合感知系统。本发明可自适应配准多组点云数据,使用先降采样再标记噪声点的方式对点云进行滤波,以结合点云投影与语义分割的方式实现大视差角度下非视野重合部分的融合,有效提升了算法的鲁棒性,降低算法运行时间,提高融合帧率。
-
-
-
-
-
-