-
公开(公告)号:CN113240717A
公开(公告)日:2021-08-10
申请号:CN202110609753.2
申请日:2021-06-01
Applicant: 之江实验室
Abstract: 本发明公开了一种基于三维目标跟踪的误差建模位置修正方法,基于三维跟踪的结果,根据特定算法特定物体的误差分布曲线,对三维目标跟踪的误差分布进行建模,进而修正三维跟踪的位置信息,得到三维物体在空间中更准确的位置信息。本发明的实现方法便捷、高效、计算简单,使三维位置信息的精度得到可靠的保证。
-
公开(公告)号:CN117974375A
公开(公告)日:2024-05-03
申请号:CN202410050447.3
申请日:2024-01-12
Applicant: 之江实验室
IPC: G06Q50/20 , G06Q10/0631
Abstract: 本说明书公开了一种教育资源分配的方法、装置、存储介质、设备,获取教育资源的初始分配策略,利用预先配置的预测模型,获取根据所述初始分配策略对各待分配学校进行教育资源分配后,在各待分配学校当前的教学状况下,各待分配学校的预测教学成果,以最小化各待分配学校的预测教学成果之间的差异为目标,对所述初始分配策略进行优化,得到最终分配策略,根据所述最终分配策略,对各待分配学校进行教育资源分配,本方法充分利用了学校教学过程中的数据信息,给出了保证教育资源分配均衡性的教育资源分配方法。
-
公开(公告)号:CN115990883B
公开(公告)日:2024-04-26
申请号:CN202310085704.2
申请日:2023-01-12
Applicant: 之江实验室
IPC: B25J9/16
Abstract: 本说明书公开了一种机器人的控制方法及装置,可以根据视觉传感器对目标物进行定位,得到定位结果,并根据该定位结果,控制机器人接近目标物,而后,若根据视觉传感器的定位结果,确定机器人位于距离目标物的预设距离范围内,监测力传感器测量得到的机器人被施加的外力,进而根据外力以及定位结果,确定机器人接近目标物所需的加速度,并根据该加速度,计算出相应的速度和位置增量,控制机器人不断接近目标物,直到监测到机器人接触到目标物,调整机器人持有的指定工具与目标物之间的角度,以通过机器人执行针对目标物的操作,结合力传感器与视觉传感器共同控制机器人进行针对目标物的操作,避免损坏工具或目标物,达到柔顺操控的效果。
-
公开(公告)号:CN116309823A
公开(公告)日:2023-06-23
申请号:CN202310090212.2
申请日:2023-01-17
Abstract: 本说明书公开了一种位姿的确定方法、装置、设备及存储介质,可以通过补偿模型根据相机采集到的二维图像中包含有目标物的指定区域图像的图像信息,确定出目标物的轮廓特征,以及根据包含有目标物的指定区域图像在整个二维图像中的图像位置信息,确定目标物的二维位置特征,从而可以根据确定出的目标物的轮廓特征、二维位置特征以及通过预设的跟踪算法确定出的目标物的初始位姿,预测出通过预设的跟踪算法确定出的初始位姿与在采集二维图像时目标物的实际位姿之间的位姿偏差,进而可以根据预测出的位姿偏差对通过预设的跟踪算法确定出的目标物的初始位姿进行补偿,以提升通过三维跟踪算法估算出的二维图像中物体对应的位姿的准确性。
-
公开(公告)号:CN112614161A
公开(公告)日:2021-04-06
申请号:CN202011581786.2
申请日:2020-12-28
Applicant: 之江实验室
IPC: G06T7/246
Abstract: 本发明公开了一种基于边缘置信度的三维物体跟踪方法,计算机视觉技术领域。该跟踪方法包括:(1)在物体投影轮廓上建立颜色模型;(2)使用法向搜索线在边缘图像上采样候选轮廓点;(3)使用边缘点的颜色特征和距离特征计算其边缘置信度,并根据置信度确定匹配的物体轮廓点;(4)使用边缘置信度对匹配轮廓点的能量项进行加权,根据所有匹配轮廓点的能量方程,求最优位姿,重复求解帧图像对应的位姿,实现三维物体的跟踪。本发明的方法解决复杂背景和遮挡情况下容易产生错匹配轮廓点以及错匹配轮廓点导致跟踪偏移和失败的问题。
-
公开(公告)号:CN117172603A
公开(公告)日:2023-12-05
申请号:CN202311153241.5
申请日:2023-09-07
Applicant: 之江实验室
IPC: G06Q10/0639 , G06Q50/20
Abstract: 在本说明书提供的一种针对智能教育产品的教学效果评估方法、装置及设备中,通过构建以各教师智能体为节点的动态网络,针对每个教师智能体,根据用户信息和环境特征,确定对智能教育产品的初始产品使用融合度,并基于动态网络中各节点的连接关系,更新当前产品使用融合度,然后根据当前产品使用融合度、智能教育产品的产品属性、用户信息及各备课策略,确定教师智能体的教育产出,最后根据各教师智能体的教育产出,确定评估结果。从上述方法可以看出,通过教师智能体,参考教师使用产品融合度、教师之间关系以及不同备课策略,确定一个教师群体所能达到的教育产出,来评估智能教育产品,减少评估过程的人工成本,及评估结果更客观、实时性强。
-
公开(公告)号:CN117036481A
公开(公告)日:2023-11-10
申请号:CN202311064059.2
申请日:2023-08-22
Applicant: 之江实验室
IPC: G06T7/73 , G06T7/33 , G06T7/246 , G06T7/11 , G06N3/0442 , G06N3/0464 , G06N3/08
Abstract: 本说明书公开了一种未知物体的行为检测方法、装置及存储介质,采集目标物体的若干张图像,并针对每张图像,根据该图像的采集时刻,获取与该图像对应的目标物体的点云,针对每张图像,将该图像与该图像对应的点云进行配准,获得配准图像及配准点云,根据不同采集时刻的配准图像及配准点云,确定目标物体的状态变化信息以通过行为预测模型,获取目标物体在预设时间内的行为特征向量,并根据行为特征向量检测目标物体的行为。本方法通过将目标物体的图像及该图像对应的点云进行配准,以根据图像补充缺失的点云数据及根据点云补充图像数据,从而获取更完整的感知数据,以提高检测目标物体行为的准确性。
-
公开(公告)号:CN116862991A
公开(公告)日:2023-10-10
申请号:CN202310602986.9
申请日:2023-05-26
IPC: G06T7/80 , G06T7/246 , G06T7/73 , G06F30/20 , G06F111/04
Abstract: 本发明涉及一种基于三维无纹理目标跟踪的在线手眼标定方法,属于计算机视觉领域,包括:将每一时刻的物体位姿和机械臂位姿入数据池中,在数据池获取足够数量的有效数据集后,开始进行在线的手眼标定计算模块;在手眼标定计算模块中,使用李代数方法获得初始值,然后使用三维汇聚点约束和闭环约束迭代地优化手眼位姿。本发明解决了难以使用无纹理/弱纹理物体进行手眼标定的问题,使得机械臂在工作场景中出现碰撞等改变相机和机械臂相对位姿时,不需要停止机械臂正在执行的任务,只需要收集相机可视空间内存在的物体的图片以及对应时刻机械臂的位姿,即使物体没有纹理或者纹理较弱,即可完成手眼位姿的重定位,使机械臂可以连续的完成任务。
-
公开(公告)号:CN116245961A
公开(公告)日:2023-06-09
申请号:CN202310218455.X
申请日:2023-03-02
Applicant: 之江实验室
Abstract: 一种基于多类传感器信息的融合感知方法,包括硬件同步触发传感器在同一时刻采集数据;时间软同步对齐不同类型传感器发布信息的时间戳;空间同步计算传感器标定参数;利用双目深度恢复、点云滤波、点云配准等技术实现点云拼接;三维点云投影至二维像素平面,实现图像信息重合视野部分的融合;通过语义信息建立不同像素坐标系下像素点的映射关系,实现图像信息非重合视野部分的融合。还包括一种基于多类传感器信息的融合感知系统。本发明可自适应配准多组点云数据,使用先降采样再标记噪声点的方式对点云进行滤波,以结合点云投影与语义分割的方式实现大视差角度下非视野重合部分的融合,有效提升了算法的鲁棒性,降低算法运行时间,提高融合帧率。
-
公开(公告)号:CN116119046A
公开(公告)日:2023-05-16
申请号:CN202310004847.6
申请日:2023-01-03
Applicant: 之江实验室
IPC: B64G7/00
Abstract: 本公开是关于一种微重力模拟台和模拟装置。微重力模拟台包括承载件、气浮机构、感应件、感应器和驱动机构。气浮机构包括气浮轴承和基座,基座通过气浮轴承漂浮安装于承载件。感应件和感应器两者中的一个设置于承载件,且两者中的另一个设置于基座。感应器用于感应感应件位置,驱动机构连接承载件,并通过感应器和基座的配合,驱动承载件跟随基座移动。本公开中感应器通过感应感应件位置,进而使得承载件能够跟随着基座移动。这样设置,无论基座怎么移动,承载件一直位于基座的下方,即承载件只需要和基座的水平面积差不多大小,便始终能够对基座形成支撑,进而减小了承载件的面积,使得操作人员能够单人完成对微重力模拟台的运输与调试。
-
-
-
-
-
-
-
-
-