-
公开(公告)号:CN113503917B
公开(公告)日:2024-07-02
申请号:CN202110757124.4
申请日:2021-07-05
IPC: G01D21/02
Abstract: 本发明公开了一种基于微纳光纤的柔性温度和压力传感器。包括白光光源、微纳光纤和光谱仪、柔性基底、柔性薄膜;微纳光纤在柔性基底上,微纳光纤上有柔性薄膜,微纳光纤两端分别和白光光源、光谱仪连接;微纳光纤分为未拉伸部分、拉锥过渡区和腰区,微纳光纤的两端均为未拉伸部分,两端的未拉伸部分之间设有腰区,腰区直径小于未拉伸部分直径,腰区两端分别经拉锥过渡区和两端未拉伸部分连接,两端未拉伸部分分别连接白光光源和光谱仪。本发明能够实现温度和压力信号的独立区分测量,同时可以标定柔性基底材料在不同温度下的折射率,具有尺寸小、灵敏度高和响应速度快等优点,具有良好的鲁棒性以及稳定性。
-
公开(公告)号:CN117909097A
公开(公告)日:2024-04-19
申请号:CN202410017190.1
申请日:2024-01-04
Applicant: 之江实验室
Abstract: 本说明书公开了一种基于机器人中间件执行实时任务的方法及装置。所述任务执行方法包括:在安装有Iinux系统的机器人中,安装Xenomai补丁,以在机器人的Linux中安装Xenomai内核,针对机器人所要执行的实时任务,确定执行实时任务时调用Xenomai内核所使用的接口,作为目标接口。将目标接口进行封装,得到针对实时任务的机器人操作系统ROS节点,在执行实时任务时,通过ROS节点,调用Xenomai内核,以执行实时任务。
-
公开(公告)号:CN117556894A
公开(公告)日:2024-02-13
申请号:CN202311505193.1
申请日:2023-11-13
Applicant: 之江实验室
Abstract: 本发明公开了一种基于语义网络和知识库控制机器人任务决策的系统,包括语义网络模块用于提供构建任务决策行为树的语义网络,该语义网络通过大语言模型的问答结果和知识库进行补充拓展;大语言模型模块用于利用大语言模型进行知识问答输出问答结果;知识库模块用于提供构建任务决策行为树的知识;任务决策模块用于依据语义网络模块、大语言模型模块、知识库模块构建任务决策行为树,具体通过查询语义网络构建决策树的节点,通过大语言模型的问答结果进行节点参数的填充,通过知识库进行节点参数的填充;变量存储模块用于存储在构建任务决策行为树时的临时变量。这样构建决策行为树更加准确性。
-
公开(公告)号:CN114237235B
公开(公告)日:2024-01-19
申请号:CN202111460950.9
申请日:2021-12-02
Applicant: 之江实验室
Abstract: 本发明公开了一种基于深度强化学习的移动机器人避障方法,通过激光雷达获取点云数据,对点云数据进行卷积特征提取,与行人位置、行人速度、全局路径共同作为神经网络输入,建立全连接神经网络,设定环境奖励,通过PPO深度强化学习算法输出机器人动作。相对于其他规划或学习的导航方法,本方法无需对行人进行预测、传感器预处理、简化了算法复杂度,更加适用于在多人环境下的机器人导航策略。同时由于加入全局路径作为输入量,提升了算法的适用范围,同时也加快了算法的收敛时间。
-
公开(公告)号:CN117351935A
公开(公告)日:2024-01-05
申请号:CN202311444418.7
申请日:2023-11-01
Applicant: 之江实验室
IPC: G10L13/047 , G10L13/08 , H04L67/06
Abstract: 本申请涉及一种机器人的语音合成方法、装置和机器人系统,其中,该机器人的语音合成方法包括:从语音合成服务器中下载分句集合中当前分句的语音合成结果;其中,分句集合为预先基于预设的分句规则对待合成文本进行分句得到;在播放当前分句的语音合成结果的同时,判断语音合成服务器是否完成分句集合中下一条分句的语音合成,若是,则从语音合成服务器中下载下一条分句的语音合成结果。通过本申请,能够实现语音文本的合成、下载以及播放的并行执行,从而降低了播放之前等待语音文本合成和下载的时长,进而提高了机器人语音播放的效率。
-
公开(公告)号:CN116394277B
公开(公告)日:2023-08-25
申请号:CN202310676079.9
申请日:2023-06-08
Applicant: 之江实验室
Abstract: 本说明书公开了一种仿人钢琴演奏机器人,仿人钢琴演奏机器人可以包括手爪、手臂、腰部、颈部、腿部、控制系统以及底座,其中,颈部对应两个自由度,以带动头部进行回转运动与俯仰运动,腰部对应两个自由度,以带动上半身进行回转运动与俯仰运动,该仿人钢琴演奏机器人可以通过视觉感知单元,对琴键的位置进行准确定位,并且可以智能化的识别出曲谱的内容,以及自动化地按照曲谱进行钢琴演奏。通过腰部、头部的两个自由度,以及对两个机械臂位姿的控制,使得本说明书中的钢琴演奏机器人可以灵巧并智能化的弹奏钢琴。
-
公开(公告)号:CN115862668A
公开(公告)日:2023-03-28
申请号:CN202211503728.7
申请日:2022-11-28
Applicant: 之江实验室
Abstract: 机器人基于声源定位判断交互对象的方法,包括:S1.预处理信息;S2.计算机器人周边人物相对于x轴单位向量的夹角;S3.判断交互对象。在语音从开始输入至输出结束的时间内,根据声源定位的角度,再结合视觉输出的机器人周边人物的坐标,计算出机器人周边哪个人物的方位与声源定位角度最接近,最接近的人物即为与机器人交互的人物。
-
公开(公告)号:CN119578364B
公开(公告)日:2025-04-18
申请号:CN202510137843.4
申请日:2025-02-07
Applicant: 之江实验室
IPC: G06F30/398
Abstract: 本说明书公开了一种节点遍历方法、装置、存储介质及电子设备,本方法通过预设筛选条件,对中间节点的连接节点进行筛选,得到符合需求的下一节点,并将下一节点重新确定为中间节点,直至中间节点为终止节点。利用本方法无需人为遍历路径图,提高了遍历效率,进而提高了确定电路状态切换条件的效率。
-
公开(公告)号:CN113688711B
公开(公告)日:2024-11-26
申请号:CN202110946066.X
申请日:2021-08-17
Applicant: 之江实验室
Abstract: 本发明涉及人工智能机器人领域,具体涉及一种无唤醒机器人判断动作执行人是否为机器人的方法,包括以下步骤:步骤1,无唤醒机器人通过视觉模块和语音模块采集视觉信息和语音声源信息,视觉信息包括人物信息和微动作信息,语音声源信息包括声源定位信息和语义理解信息;步骤2,根据声源定位信息,判断出语音说话人;步骤3,在确定语音说话人后,判断语音说话人的脸部朝向;步骤4,根据语义理解源信息,提取动作执行人及意图,同时结合说话人的脸部朝向,识别微动作信息,判断说话人语音中的动作执行人是否为机器人。本发明基于视觉、声源定位角度和语义理解信息,可有效判断动作执行人是否为机器人,从而进行响应回复。
-
公开(公告)号:CN116952250A
公开(公告)日:2023-10-27
申请号:CN202311200121.6
申请日:2023-09-18
Applicant: 之江实验室
IPC: G01C21/20 , G06Q10/047 , G06F17/10
Abstract: 本发明公开了一种基于语义地图的机器人指路方法和装置,使用机器人对环境构建语义地图,并采集重要位置并进行语义标注作为语义点;随后构建有向连接图;以机器人当前位置作为起点,选取任意一个语义点作为目的地,获得从起点到目的地的最短路径作为规划路径;获取规划路径上每一个点相对于前一个点的方向信息并记载到列表中,并将规划路径上每一个点的语义信息记载到列表中,得到指路列表并生成指路文本;在机器人的显示屏上显示指路地图,或通过机器人的扬声器进行播放指路文本,完成指路任务。本发明能够生成多样化的指路文本,同时以多种形式对用户的问路进行回应,进一步提升了机器人的人机交互能力。
-
-
-
-
-
-
-
-
-