-
公开(公告)号:CN117520394A
公开(公告)日:2024-02-06
申请号:CN202311465594.9
申请日:2023-11-07
Applicant: 之江实验室
IPC: G06F16/2455 , H04L67/12 , G06F16/901 , G06N5/025 , G06N5/02
Abstract: 本发明公开了一种基于云边端计算的机器人规则实时计算方法和装置,包括:可视化模块用于提供规则和事件的编辑功能,并将编辑的规则数据和事件数据于存储模块中存储,还用于展示计算结果和事件发送结果;存储模块用于存储规则数据和事件数据;计算模块用于从存储模块中读取规则数据,并通过实时获取的特征数据进行规则计算得到计算结果;事件模块用于从存储模块中读取事件数据,并确定事件的发送信道,在获得规则计算完成时且达到发送事件的条件时,被计算模块触发后依据事件的发送通道发送事件,该事件携带规则计算结果。该方法和装置能够实现机器人整体系统的高效传输和发送,实现实时机器人运行状态与规则的监控,实现机器人的高效信息处理。
-
公开(公告)号:CN113568324B
公开(公告)日:2023-10-20
申请号:CN202110729002.4
申请日:2021-06-29
Applicant: 之江实验室
IPC: G05B17/02
Abstract: 本发明公开了一种基于仿真演绎的知识图谱修正方法,该方法通过在仿真环境中大量重复相似的机器人行为,实现对机器人知识图谱的修正。其中知识图谱是一种能够表达机器人行为、环境、硬件关联的数据结构,用于机器人行为决策并执行任务。本发明基于仿真环境,所使用的仿真环境使用不限于现有的机器人仿真引擎,如unity3D、unreal4、gazebo,使用与机器人相似的仿真模型和环境,通过实时上传机器人与操作物件的信息,来修正知识图谱中机器人行为逻辑节点之间的关联。
-
公开(公告)号:CN116775845A
公开(公告)日:2023-09-19
申请号:CN202310888378.9
申请日:2023-07-19
Applicant: 之江实验室
IPC: G06F16/332 , G06F16/33 , G06F40/35
Abstract: 本发明公开了一种具身智能机器人的主动多轮对话系统,包括:数据采集模块,用于获取机器人服务范围内的环境信息;历史记录模块,基于用户的身份ID,存储人机多轮对话的交互信息,所述交互信息包括对话内容和交互结果;对话生成模块,用于生成回复文本;具身智能算法模块,生成动作指令以控制机器人靠近用户并进入交互状态;主动对话策略模块,生成对应的主动对话策略;机器人根据生成的回复文本和主动对话策略,在交互状态中执行对话任务。本发明还提供了一种主动多轮对话方法。本发明提供的该系统可以有效以多轮对话的方式推动机器人和用户之间的交互任务,从而提高机器人的对话达成率和服务智能程度。
-
公开(公告)号:CN115796288A
公开(公告)日:2023-03-14
申请号:CN202211511472.4
申请日:2022-11-29
Applicant: 之江实验室
Abstract: 本发明公开了一种基于知识库的动态场景下推理任务的方法和装置,包括:在将表达知识库的语义网络按照关系类型划分为动作关系子网络、状态变化关系子网络、从属关系子网络以及介词关系子网络的基础上,依据动作关系子网络进行任务的行为树缺失判断的推理,通过所有子网络实现目标物体和与状态相关的感知数据等缺失数据的推理获取,进而实现行为树的推理。这样的方式能够避免使用任务知识或结构化的机器人任务设计语言,使用通用的语义网络完成任务的推理规划,实现机器人的作业问题,该推理过程不需要过多的人为编辑和干预,作为技术使用方,只需要提供完备的语义网络和实时感知数据,即可以完成对机器人行为的自主控制。
-
公开(公告)号:CN115328129A
公开(公告)日:2022-11-11
申请号:CN202210961008.9
申请日:2022-08-11
Applicant: 之江实验室
Abstract: 本发明属于人工智能机器人任务行为规划、知识图谱技术领域,一种基于状态知识图谱的机器人自主行为驱动方法,包括如下步骤:步骤1:构建任务组知识图谱;步骤2:构建三元组知识图谱;步骤3:构建状态知识图谱;步骤4:设计决策和驱动方法;步骤5:设计任务决策闭环控制系统。本发明方法使用知识图谱和动态感知系统,生成一种自动的机器人行为驱动方法。使用该方案能够将机器人的任意行为与动态感知系统结合起来,该结合过程不需要过多的人为编辑和干预,作为技术使用方,只需要进行设置状态的阈值和期望附着状态,即可以完成对机器人行为的自主控制。
-
公开(公告)号:CN114610861B
公开(公告)日:2022-08-26
申请号:CN202210508804.7
申请日:2022-05-11
Applicant: 之江实验室
IPC: G06F16/332 , G06F16/33 , G06F16/35 , G06F40/30 , G06N3/04
Abstract: 本发明公开了基于变分自编码器的融入知识和感情的端到端对话方法,所述方法包括:采集情感标签、对话、知识和回复,并进行预处理作为训练数据;搭建由变分自编码器模块和拷贝模块组成的模型,并进行训练;预处理测试数据,将测试数据输入训练好的模型中进行预测,得到回复,持续进行端到端对话。变分自编码器模块的编码模块编码情感标签和输入对话的语义信息。变分自编码器模块的解码模块融入知识和情感用于生成内容。拷贝模块结合解码器生成的内容、输入的对话和知识生成回复输出。本发明方法采用变分自编码器结构以生成丰富的回复;引入情感标签用于控制回复的情感类型;从输入对话和知识中拷贝信息,使生成回复兼具丰富性和可控性。
-
公开(公告)号:CN113688711A
公开(公告)日:2021-11-23
申请号:CN202110946066.X
申请日:2021-08-17
Applicant: 之江实验室
Abstract: 本发明涉及人工智能机器人领域,具体涉及一种无唤醒机器人判断动作执行人是否为机器人的方法,包括以下步骤:步骤1,无唤醒机器人通过视觉模块和语音模块采集视觉信息和语音声源信息,视觉信息包括人物信息和微动作信息,语音声源信息包括声源定位信息和语义理解信息;步骤2,根据声源定位信息,判断出语音说话人;步骤3,在确定语音说话人后,判断语音说话人的脸部朝向;步骤4,根据语义理解源信息,提取动作执行人及意图,同时结合说话人的脸部朝向,识别微动作信息,判断说话人语音中的动作执行人是否为机器人。本发明基于视觉、声源定位角度和语义理解信息,可有效判断动作执行人是否为机器人,从而进行响应回复。
-
公开(公告)号:CN113568324A
公开(公告)日:2021-10-29
申请号:CN202110729002.4
申请日:2021-06-29
Applicant: 之江实验室
IPC: G05B17/02
Abstract: 本发明公开了一种基于仿真演绎的知识图谱修正方法,该方法通过在仿真环境中大量重复相似的机器人行为,实现对机器人知识图谱的修正。其中知识图谱是一种能够表达机器人行为、环境、硬件关联的数据结构,用于机器人行为决策并执行任务。本发明基于仿真环境,所使用的仿真环境使用不限于现有的机器人仿真引擎,如unity3D、unreal4、gazebo,使用与机器人相似的仿真模型和环境,通过实时上传机器人与操作物件的信息,来修正知识图谱中机器人行为逻辑节点之间的关联。
-
公开(公告)号:CN113688711B
公开(公告)日:2024-11-26
申请号:CN202110946066.X
申请日:2021-08-17
Applicant: 之江实验室
Abstract: 本发明涉及人工智能机器人领域,具体涉及一种无唤醒机器人判断动作执行人是否为机器人的方法,包括以下步骤:步骤1,无唤醒机器人通过视觉模块和语音模块采集视觉信息和语音声源信息,视觉信息包括人物信息和微动作信息,语音声源信息包括声源定位信息和语义理解信息;步骤2,根据声源定位信息,判断出语音说话人;步骤3,在确定语音说话人后,判断语音说话人的脸部朝向;步骤4,根据语义理解源信息,提取动作执行人及意图,同时结合说话人的脸部朝向,识别微动作信息,判断说话人语音中的动作执行人是否为机器人。本发明基于视觉、声源定位角度和语义理解信息,可有效判断动作执行人是否为机器人,从而进行响应回复。
-
公开(公告)号:CN112558641B
公开(公告)日:2024-05-28
申请号:CN202011445509.9
申请日:2020-12-08
Applicant: 之江实验室
IPC: G05D1/43 , G05D1/243 , G05D1/644 , G05D109/10
Abstract: 本发明公开了一种基于计算人物意图控制机器人找回丢失人物的方法,该方法通过获取周边人物视觉定位信息与人物状态信息,建立人物轨迹计算,从而评定人物的意图,并结合声场实现人物丢失、远离后控制机器人运动找回该人物。其中所述的人物意图是一种状态,表示人物最近时间的行为动作,包含人物位置、状态、运动向量等。本发明基于视觉计算人物意图,使得原本使用视觉信息控制机器人找回目标人物的过程变得更加精确,并且能够在视觉失效的情况下也能尝试找回丢失人物。
-
-
-
-
-
-
-
-
-