-
公开(公告)号:CN114227761B
公开(公告)日:2023-07-14
申请号:CN202111640730.4
申请日:2021-12-29
Applicant: 之江实验室
IPC: B25J19/00
Abstract: 本发明公开了一种双足机器人外界推力检测装置及其检测方法,可以人为随机制造单点双足机器人外界推力,代替机器人用多点传感器去感知外界推力,该装置结合检测装置的位姿信息、双足机器人的位姿信息以及检测装置和双足机器人模型信息分布式检测出双足机器人作用力信息,并实时传输给主控系统,其人机系统实时3D显示外界推力状况。该发明降低了双足机器人感知系统搭建的成本,更快启动核心控制算法的验证工作,加快项目收敛周期。检测方法的分布式设计,降低对主控系统资源占用,加快控制频率。
-
公开(公告)号:CN116401792A
公开(公告)日:2023-07-07
申请号:CN202310663587.3
申请日:2023-06-06
Applicant: 之江实验室
Abstract: 本申请提供一种机器人机身设计方法,包括:生成机器人机身的基础模型,机器人机身的基础模型包括用于与机器人的四肢及颈部连接的接口;在机器人机身前倾旋转预设角度,且机器人的手臂与机器人的肩部齐平的姿态下,对机器人机身施加单位载荷,生成机器人机身在单位载荷下的拓扑结构;根据拓扑结构,生成机器人机身的结构。本申请在设计机器人机身时,可以得到考虑了单位载荷的轻量化的机器人机身的结构,机器人机身可以适应更多载荷工况,同时本设计方法易于标准化,易于推广应用。
-
公开(公告)号:CN116091774A
公开(公告)日:2023-05-09
申请号:CN202310171401.2
申请日:2023-02-16
IPC: G06V10/26 , G06V10/774 , G06V10/82 , G06V20/70 , G06N3/0895
Abstract: 本发明公开了一种基于提示学习的弱监督语义分割方法,包括:把图像和通过可学习的提示适配器的类别文本进行编码生成特征嵌入embeddings,然后将两者进行查询query,从而使图像以及其图像级别对应的类别标签作为训练数据;使用注意力进行查询,利用上一步生成的query和图像embeddings结果,添加一个transformer来在图像embeddings和query之间做一个自注意力;在训练过程中计算损失函数进行更新权重,将弱监督语义分割WSSS损失分为两部分:第一部分是seedingloss,第二部分是边界损失。本发明提出的WeakCLIP方法非常简单且高效。本发明还提供了相应的基于提示学习的弱监督语义分割装置。
-
公开(公告)号:CN116010566A
公开(公告)日:2023-04-25
申请号:CN202211629271.4
申请日:2022-12-19
Applicant: 之江实验室
IPC: G06F16/332 , G06F16/36 , G06F40/30 , G06F16/338 , G06F16/33 , G06F16/35 , G06N3/0442 , G06N3/0464 , G10L15/26 , G10L13/08
Abstract: 本发明公开了一种基于知识图谱的问答方法和系统,包括:将获取的音频数据转换为问答文本;利用基于双向LSTM构建的主语判断模型对问答文本进行主语判断并确认主语;采用基于spacy框架并结合主语在问答文本中的前后语义特征,链接主语在知识图谱中的标准主语实体;利用基于CNN构建关系预测模型对问答文本进行关系判断并筛选概率值高的至少2个关系;依据标准主语实体和每个关系在知识图谱中进行检索,确定每个目标实体节点,并对所有目标实体节点排序确认最终目标实体节点作为答案,并将答案转换成语音输出。该方法和系统实现计算资源需求最小化。
-
公开(公告)号:CN115862130A
公开(公告)日:2023-03-28
申请号:CN202211433342.3
申请日:2022-11-16
Applicant: 之江实验室
IPC: G06V40/20 , G06V40/10 , G06V10/40 , G06V10/764 , G06V10/774 , G06V20/52 , G06V10/82 , G06V20/40 , G06N3/0464 , G06N3/047 , G06N3/084
Abstract: 基于人体姿态及其躯干运动场的行为识别方法,包括:获取多人人体彩色图像作为输入;采用目标检测网络从所述多人人体彩色图像中检测二维人体包围框,采用二维人体姿态估计网络从截取的图像中计算二维人体姿态;基于二维人体姿态分别计算关键点热图和躯干运动场,拼接这两种模态作为人体姿态表征;将人体姿态表征作为输入,建立姿态网络用于提取人体行为特征,输出分类器中概率最大的行为类别;采集多人人体彩色图像序列、二维人体姿态以及对应的类别标签作为训练数据集,采用随机梯度下降的优化方法对姿态网络进行预训练优化。本发明减少了复杂背景下行为动作在时间序列的歧义性,提高了低采样帧率下的行为识别的准确率。
-
公开(公告)号:CN115805607A
公开(公告)日:2023-03-17
申请号:CN202211537972.5
申请日:2022-12-01
Applicant: 之江实验室
Abstract: 本申请涉及一种机械手和机器人。机械手包括掌部、机械指、掌部驱动结构以及关节结构。掌部包括掌平面和与掌平面垂直的掌侧面。机械指包括沿延伸方向排布的指尖、远端指段和近端指段。远端指段的一端与指尖转动连接。掌部驱动结构设置于掌侧面,与近端指段远离远端指段的一端连接,以在连接方向上连接机械指和掌部。掌部驱动结构用于驱动机械指的运动,以改变机械指和掌部之间的角度。连接方向垂直于掌侧面。远端指段远离指尖的一端与关节结构转动连接。近端指段远离掌部驱动结构的一端与关节结构转动连接。关节结构能够改变远端指段和近端指段指尖之间的角度。
-
公开(公告)号:CN113408428B
公开(公告)日:2023-03-14
申请号:CN202110690143.X
申请日:2021-06-22
Applicant: 之江实验室
IPC: G06V40/10 , G06V10/28 , G06V10/46 , G06V10/764 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种行人图像不变性特征提取和无监督行人重识别方法与装置,通过模型分离实现神经网络部分知识迁移,从辅助模型中提取行人图像的行人主体(图像前景)的不变性特征表达;根据行人主体的不变性特征,利用K远邻聚类算法估计行人图像中潜在的相同行人,构建同一行人不同背景的联系,挖掘行人图像的背景风格的不变性特征表达;将上述的行人图像中行人主体和背景风格的不变性特征表达进行融合,得到输出特征,用于判别行人身份,进行行人重识别。本发明在多个行人重识别数据集上超过目前最好的基于无监督迁移学习的算法,解决了相关技术中提到的行人图像的背景风格差异显著,导致迁移学习效率低下的问题。
-
公开(公告)号:CN112598709B
公开(公告)日:2022-11-01
申请号:CN202011559927.0
申请日:2020-12-25
Applicant: 之江实验室
Abstract: 本发明公开了一种基于视频流的行人运动速度智能感知方法,该方法包括:采用摄像头标定方法获取摄像头内部参数和外部参数,建立图像坐标系到空间坐标系的坐标转换模型;获取监控摄像头下的实时视频流并进行行人目标检测及跟踪,得到行人ID和相应的图像坐标系下的行人检测框粗定位结果;利用人体部件分割模型对得到的行人目标进行部件分割,获取图像坐标系下的行人脚点精定位结果;利用坐标转换模型实现行人脚点从图像坐标系到真实世界中的空间坐标系的位置信息解算,结合视频流帧间隔时间计算行人的运动速度,实现基于摄像头视频流的行人运动速度智能感知方法。
-
公开(公告)号:CN112588827B
公开(公告)日:2022-09-09
申请号:CN202011344822.3
申请日:2020-11-25
Applicant: 之江实验室
Abstract: 本发明公开了一种智能机器人电动机用微流管的制备装置及方法,本发明装置主要包括轧辊、加热筒、冷却筒、多孔连接块和卷曲机,轧辊将金属线咬入加热筒,加热筒快速加热金属成液体,通过多孔连接块流入冷却筒快速冷却后形成非晶管,并绕在卷取机上形成卷材。本发明装置自动化程度高,可以实现从加线料到最后产品的全线程、多工序高度集成的自动化生产;设置三个微流管成型口,生产效率高;通过分段加热和液氮冷却,非晶化程度高;生产出的微流管长度和直径无限制,可生产的厚度为10um‑500um,对于厚度为500um的管,最大误差为10um,非晶率不低于95%;解决了当前非晶管成型时生产效率和精度低的问题。
-
公开(公告)号:CN114092526B
公开(公告)日:2022-06-28
申请号:CN202210073191.9
申请日:2022-01-21
Applicant: 之江实验室
Abstract: 本发明公开了一种基于物体3D位姿视觉跟踪的增强现实方法及装置,该方法包括:获取第一相机视角下的第一能量函数和第二相机视角下的第二能量函数,并计算目标物体当前帧和上一帧在物体中心坐标系下的位姿变换增量;根据位姿变换增量,更新目标物体在第一相机视角下的位姿,得到第一位姿;将位姿变换增量发送至第二处理单元,以使得第二处理单元根据位姿变换增量,更新目标物体在第二相机视角下的位姿,得到第二位姿;将第一位姿发送至显示设备,以使得显示设备获取自身在世界坐标系下的第三位姿并根据第一位姿、第三位姿和第四位姿计算目标物体当前帧在显示设备坐标系下的第五位姿,其中第四位姿为第一相机在世界坐标系下的位姿。
-
-
-
-
-
-
-
-
-