基于认知推理的知识图谱多跳问答方法及模型

    公开(公告)号:CN113360604B

    公开(公告)日:2024-02-27

    申请号:CN202110697004.X

    申请日:2021-06-23

    Abstract: 本发明公开了一种基于认知推理的知识图谱多跳问答方法及模型,方法包括:步骤1,从给定的问题‑答案对数据中随机选取多批次的数据作为训练集;步骤2,以训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对深层认知推理网络模型进行优化,得到优化后的网络模型;步骤3,通过优化后的网络模型对测试集中的问题进行处理,并对各个候选答案实体打分,得分最高的候选答案实体即为给定自然语言问题的答案。通过模拟人类的认知推理机制,由层次化的网络模型从不同角度进行知识推理,有效地利用并建模了知识图谱中的节点级别与边级别的信息,对知识图谱多跳问答取得显著性能提升。

    基于关系上下文进行实体对齐的图神经网络系统及方法

    公开(公告)号:CN113157935B

    公开(公告)日:2024-02-27

    申请号:CN202110281892.7

    申请日:2021-03-16

    Abstract: 本发明公开了一种基于关系上下文进行实体对齐的图神经网络系统及方法,模型包括:实体上下文模块,根据对齐的实体种子,以知识图谱中每一个实体及其周围的子图信息作为输入,输出该实体的实体上下文向量;关系上下文模块,根据对齐的实体种子,以知识图谱中每一个实体及其周围的子图信息作为输入,输出该实体的关系上下文向量;向量拼接模块,能拼接实体上下文模块和关系上下文模块输出的实体上下文向量与关系上下文向量,得到实体的最终向量;相似度判断模块,能计算两个实体的最终向量的内积作为这两个实体的相似度得分。该模型及方法有效地利用并建模了知识图谱中的关系信息,同时结合了图神经网络相关技术,取得了显著的性能提升。

    一种提升视觉观测机器人控制稳定性的方法

    公开(公告)号:CN115816466B

    公开(公告)日:2023-06-16

    申请号:CN202310051575.5

    申请日:2023-02-02

    Abstract: 本发明公开一种提升视觉观测机器人控制稳定性的方法,属机器人控制领域。方法包括:步骤1,用基于行为聚类的图像输入强化学习方式对控制视觉观测机器人的深度神经网络模型训练;步骤2,用训练好的深度神经网络模型对视觉观测机器人进行控制。本发明的方法相较于现有控制机器人的视觉强化学习方法,具有以下优点:性能鲁棒,可直接在多种干扰同时存在的环境下实现高效的表征学习,样本效率受到无关干扰的影响小。由于训练深度神经网络模型的基于行为聚类的图像输入强化学习方式引入了行为相似度量进行表征学习,不需要额外先验知识。计算高效,能在批次较小情况下稳定训练,大大减小显存占用和训练时间,提升训练效率和控制机器人稳定性。

    一种提升视觉观测机器人控制稳定性的方法

    公开(公告)号:CN115816466A

    公开(公告)日:2023-03-21

    申请号:CN202310051575.5

    申请日:2023-02-02

    Abstract: 本发明公开一种提升视觉观测机器人控制稳定性的方法,属机器人控制领域。方法包括:步骤1,用基于行为聚类的图像输入强化学习方式对控制视觉观测机器人的深度神经网络模型训练;步骤2,用训练好的深度神经网络模型对视觉观测机器人进行控制。本发明的方法相较于现有控制机器人的视觉强化学习方法,具有以下优点:性能鲁棒,可直接在多种干扰同时存在的环境下实现高效的表征学习,样本效率受到无关干扰的影响小。由于训练深度神经网络模型的基于行为聚类的图像输入强化学习方式引入了行为相似度量进行表征学习,不需要额外先验知识。计算高效,能在批次较小情况下稳定训练,大大减小显存占用和训练时间,提升训练效率和控制机器人稳定性。

    资源受限条件下提高强化学习探索效率的方法

    公开(公告)号:CN114492845A

    公开(公告)日:2022-05-13

    申请号:CN202210336685.1

    申请日:2022-04-01

    Abstract: 本发明公开了一种资源受限条件下提高强化学习探索效率的方法,包括:步骤1,智能体通过其运行的强化学习算法的策略网络的策略选择动作去探索环境;步骤2,接受环境返回执行所述智能体动作后的新状态和相应的外在奖励;步骤3,通过资源感知方式计算智能体用于探索环境的内在奖励;步骤4,按以下总体奖励计算公式计算所述智能体的总体奖励;步骤5,根据得出的智能体的总体奖励对所述智能体的强化学习算法的策略网络进行更新;步骤6,判断智能体本轮环境探索得到的所有外在奖励的累积值是否最大化,若否,则回到步骤1重复进行处理,若是,则结束本轮环境探索。该方法能在资源受限条件下,提升智能体应用的主流强化学习方法的探索效率。

    一种多对象的采集控制方法、装置及控制设备

    公开(公告)号:CN112486134B

    公开(公告)日:2022-04-19

    申请号:CN202011474770.1

    申请日:2020-12-14

    Abstract: 本申请公开了一种多对象的采集控制方法、装置及控制设备,方法应用于控制设备,本申请中基于采集设备向控制设备传输状态估计数据或者不传输所对应的控制变量,根据传输来的状态误差数据获得控制设备上对状态误差的估计,而此时控制设备上所估计出的状态误差数据中就包含有各个采集设备是否向控制设备传输状态估计数据的控制变量,进而在建立控制模型之后,以控制变量为决策变量对控制模型进行状态误差数据的平均值优化,从而得到状态误差平均值最小状态下对应的控制变量的变量值,在控制采集设备按照所得到的变量值向控制设备传输状态估计数据时,就能够保证控制设备上的平均误差最小,由此,实现针对多个被采集对象的采集设备的最优调度控制。

    提升智能体连续控制稳定性的方法

    公开(公告)号:CN114186496A

    公开(公告)日:2022-03-15

    申请号:CN202111532624.4

    申请日:2021-12-15

    Abstract: 本发明公开了一种提升智能体连续控制稳定性的方法,包括:步骤1,智能体按预先设定的连续控制任务与环境交互采集交互数据,将交互数据作为训练数据放到经验回放池中;步骤2,对所述保守状态策略评价模块的目标函数取最小值的方式对所述保守状态打分网络进行训练;步骤3,结合训练好的所述保守状态打分网络对所述保守状态策略提升模块的目标函数进行计算,通过取最大值的方式对所述保守状态策略网络的策略函数进行训练,直至得出稳定性最强的策略;步骤4,智能体用稳定性最强的策略执行后续的连续控制。该方法有效增强了智能体强化学习训练得到策略从训练环境到真实环境迁移时的鲁棒性,提升智能体连续控制的稳定性。

    一种面向图神经网络的标签感知协同训练方法

    公开(公告)号:CN113361627A

    公开(公告)日:2021-09-07

    申请号:CN202110697015.8

    申请日:2021-06-23

    Abstract: 本发明公开了一种面向图神经网络的标签感知协同训练方法,包括:步1,用图神经网络将已知标签沿连边传播估计出各结点初步标签取值分布,衡量各结点的初步标签取值分布属于某类的初步预测置信度;步2,为初步预测置信度最高的预定个数结点标注伪标签形成增广的有标注图结构数据集;步3,利用图神经网络学习各结点的向量表示并做出全局预测,得出未标注结点的最终预测值;步4,将最终预测值作为未标注结点的初始标签,重复步1至步4,得出各未标注结点的最终分类结果。通过充分利用少量已知标签建模全局标签依赖性,结合标签传播和图神经网络特征传播优势,将全局标签依赖信息隐式融入图神经网络训练过程,得到更客观结点表示,提升分类性能。

    基于认知推理的知识图谱多跳问答方法及模型

    公开(公告)号:CN113360604A

    公开(公告)日:2021-09-07

    申请号:CN202110697004.X

    申请日:2021-06-23

    Abstract: 本发明公开了一种基于认知推理的知识图谱多跳问答方法及模型,方法包括:步骤1,从给定的问题‑答案对数据中随机选取多批次的数据作为训练集;步骤2,以训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对深层认知推理网络模型进行优化,得到优化后的网络模型;步骤3,通过优化后的网络模型对测试集中的问题进行处理,并对各个候选答案实体打分,得分最高的候选答案实体即为给定自然语言问题的答案。通过模拟人类的认知推理机制,由层次化的网络模型从不同角度进行知识推理,有效地利用并建模了知识图谱中的节点级别与边级别的信息,对知识图谱多跳问答取得显著性能提升。

Patent Agency Ranking