-
公开(公告)号:CN117011389A
公开(公告)日:2023-11-07
申请号:CN202310604013.9
申请日:2023-05-26
摘要: 本发明涉及一种基于深度数据直接优化的三维跟踪方法,属于三维跟踪技术领域。三维跟踪方法步骤如下:(1)读入相机参数配置文件;(2)初始化相机内参矩阵;(3)给定初始位姿,三维模型和深度图;(4)通过基于深度数据的位姿扰动模型估计下一帧的位姿;(5)重复步骤(4),继续跟踪。本发明为深度数据引入了扰动模型,无需寻找三维点的对应关系,提高了跟踪精度。
-
公开(公告)号:CN116862991A
公开(公告)日:2023-10-10
申请号:CN202310602986.9
申请日:2023-05-26
IPC分类号: G06T7/80 , G06T7/246 , G06T7/73 , G06F30/20 , G06F111/04
摘要: 本发明涉及一种基于三维无纹理目标跟踪的在线手眼标定方法,属于计算机视觉领域,包括:将每一时刻的物体位姿和机械臂位姿入数据池中,在数据池获取足够数量的有效数据集后,开始进行在线的手眼标定计算模块;在手眼标定计算模块中,使用李代数方法获得初始值,然后使用三维汇聚点约束和闭环约束迭代地优化手眼位姿。本发明解决了难以使用无纹理/弱纹理物体进行手眼标定的问题,使得机械臂在工作场景中出现碰撞等改变相机和机械臂相对位姿时,不需要停止机械臂正在执行的任务,只需要收集相机可视空间内存在的物体的图片以及对应时刻机械臂的位姿,即使物体没有纹理或者纹理较弱,即可完成手眼位姿的重定位,使机械臂可以连续的完成任务。
-
公开(公告)号:CN116309823A
公开(公告)日:2023-06-23
申请号:CN202310090212.2
申请日:2023-01-17
摘要: 本说明书公开了一种位姿的确定方法、装置、设备及存储介质,可以通过补偿模型根据相机采集到的二维图像中包含有目标物的指定区域图像的图像信息,确定出目标物的轮廓特征,以及根据包含有目标物的指定区域图像在整个二维图像中的图像位置信息,确定目标物的二维位置特征,从而可以根据确定出的目标物的轮廓特征、二维位置特征以及通过预设的跟踪算法确定出的目标物的初始位姿,预测出通过预设的跟踪算法确定出的初始位姿与在采集二维图像时目标物的实际位姿之间的位姿偏差,进而可以根据预测出的位姿偏差对通过预设的跟踪算法确定出的目标物的初始位姿进行补偿,以提升通过三维跟踪算法估算出的二维图像中物体对应的位姿的准确性。
-
公开(公告)号:CN114083545B
公开(公告)日:2022-07-01
申请号:CN202210076251.2
申请日:2022-01-24
申请人: 之江实验室
摘要: 本发明公开了一种基于视觉感知的运动物体机器人抓取方法及装置,该方法包括:获取第一相机视角下的第一能量函数和第二相机视角下的第二能量函数;根据第一和第二能量函数,计算物体中心坐标系下的综合能量函数;对综合能量函数进行最小化,得到位姿变换增量;根据位姿变换增量,更新在每个相机视角下的物体位姿;将若干次更新后的物体位姿输入物体运动预测模型中,预测未来预定时间内物体的第一位姿;将第一位姿与抓取位姿数据库中的所有第二位姿进行比较,将与第二位姿差值最小且差值小于预定阈值的第一位姿作为抓取位姿对应的机械臂末端位姿;根据机械臂末端位姿,控制机械臂运动后控制末端执行器进行物体抓取。
-
公开(公告)号:CN114092526A
公开(公告)日:2022-02-25
申请号:CN202210073191.9
申请日:2022-01-21
申请人: 之江实验室
摘要: 本发明公开了一种基于物体3D位姿视觉跟踪的增强现实方法及装置,该方法包括:获取第一相机视角下的第一能量函数和第二相机视角下的第二能量函数,并计算目标物体当前帧和上一帧在物体中心坐标系下的位姿变换增量;根据位姿变换增量,更新目标物体在第一相机视角下的位姿,得到第一位姿;将位姿变换增量发送至第二处理单元,以使得第二处理单元根据位姿变换增量,更新目标物体在第二相机视角下的位姿,得到第二位姿;将第一位姿发送至显示设备,以使得显示设备获取自身在世界坐标系下的第三位姿并根据第一位姿、第三位姿和第四位姿计算目标物体当前帧在显示设备坐标系下的第五位姿,其中第四位姿为第一相机在世界坐标系下的位姿。
-
-
公开(公告)号:CN114092561A
公开(公告)日:2022-02-25
申请号:CN202210076234.9
申请日:2022-01-24
申请人: 之江实验室
摘要: 本发明公开了一种基于多目相机的无纹理三维物体跟踪方法及装置,该方法包括:获取第一位姿,其中所述第一位姿为目标物体上一帧在各相机坐标系下的位姿;将所述第一位姿转换到物体中心坐标系下,得到第二位姿;建立所述物体中心坐标系下的相机投影模型;根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数;将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变换增量;将所述位姿变换增量转换到各相机坐标系下并对所述第一位姿进行更新,从而实现物体跟踪。本发明采用多目跟踪的方法,将各个相机的图像信息与坐标系信息建立在同一框架下,得到更加准确的跟踪结果。
-
公开(公告)号:CN114083545A
公开(公告)日:2022-02-25
申请号:CN202210076251.2
申请日:2022-01-24
申请人: 之江实验室
摘要: 本发明公开了一种基于视觉感知的运动物体机器人抓取方法及装置,该方法包括:获取第一相机视角下的第一能量函数和第二相机视角下的第二能量函数;根据第一和第二能量函数,计算物体中心坐标系下的综合能量函数;对综合能量函数进行最小化,得到位姿变换增量;根据位姿变换增量,更新在每个相机视角下的物体位姿;将若干次更新后的物体位姿输入物体运动预测模型中,预测未来预定时间内物体的第一位姿;将第一位姿与抓取位姿数据库中的所有第二位姿进行比较,将与第二位姿差值最小且差值小于预定阈值的第一位姿作为抓取位姿对应的机械臂末端位姿;根据机械臂末端位姿,控制机械臂运动后控制末端执行器进行物体抓取。
-
公开(公告)号:CN113723233A
公开(公告)日:2021-11-30
申请号:CN202110942289.9
申请日:2021-08-17
申请人: 之江实验室
摘要: 本发明公开了一种基于分层时序多示例学习的学生学习参与度评估方法,该方法根据示例之间的时间相关性,建立分层时序多示例学习模型,该模型由视频帧‑视频片段的底层模块以及视频片段‑视频的顶层模块构成。该方法使用从视频中提取的头部姿态、面部表情以及身体姿态三类特征以及视频级的学习参与度标签训练评估模型,该模型不仅能够得到视频级的学习参与度,而且能够得到所有视频片段的学习参与度。本发明的实现方法便捷、高效、计算简单,使学习参与度评估精度得到可靠的保证。
-
公开(公告)号:CN113723233B
公开(公告)日:2024-03-26
申请号:CN202110942289.9
申请日:2021-08-17
申请人: 之江实验室
摘要: 本发明公开了一种基于分层时序多示例学习的学生学习参与度评估方法,该方法根据示例之间的时间相关性,建立分层时序多示例学习模型,该模型由视频帧‑视频片段的底层模块以及视频片段‑视频的顶层模块构成。该方法使用从视频中提取的头部姿态、面部表情以及身体姿态三类特征以及视频级的学习参与度标签训练评估模型,该模型不仅能够得到视频级的学习参与度,而且能够得到所有视频片段的学习参与度。本发明的实现方法便捷、高效、计算简单,使学习参与度评估精度得到可靠的保证。
-
-
-
-
-
-
-
-
-