基于主题实体语境迭代优化的全局实体链接方法

    公开(公告)号:CN113360605B

    公开(公告)日:2024-02-23

    申请号:CN202110698612.2

    申请日:2021-06-23

    Abstract: 本发明公开了一种基于主题实体语境迭代优化的全局实体链接方法,包括:步骤1,以预先训练好的主题实体迭代语境细化模型,对包含多个指称的文档和包含多个候选实体的知识图谱进行实体链接处理;步骤2,所述主题实体迭代语境细化模型处理过程中,对知识图谱中每个指称的候选实体进行迭代优化打分,最终选择得分最高的候选实体作为实体链接的结果。该方法计算效率高,性能优异。

    挖掘知识图谱中不同长度规则的可微规则学习模型

    公开(公告)号:CN114547344A

    公开(公告)日:2022-05-27

    申请号:CN202210310909.1

    申请日:2022-03-28

    Abstract: 本发明公开了一种挖掘知识图谱中不同长度规则的可微规则学习模型,包括:所述玩家单元包括并列设置的若干玩家模块,每个玩家模块能根据输入的从知识图谱中找到不同长度链式逻辑规则的查询,从知识图谱中找到对应的链式逻辑规则;所述队长单元,与所述玩家单元通信连接,能从所述玩家单元中选择合适的玩家模块来处理对应的查询;所述裁判单元,分别与所述队长单元和玩家单元通信连接,能对所述玩家单元找到的链式逻辑规则进行评估,得出评估反馈结果,用于所述玩家单元和队长单元根据所述评估反馈结果改善自身。该可微规则学习模型,能准确、高效的从知识图谱中挖掘全部的链式逻辑规则。

    基于认知推理的知识图谱多跳问答方法及模型

    公开(公告)号:CN113360604B

    公开(公告)日:2024-02-27

    申请号:CN202110697004.X

    申请日:2021-06-23

    Abstract: 本发明公开了一种基于认知推理的知识图谱多跳问答方法及模型,方法包括:步骤1,从给定的问题‑答案对数据中随机选取多批次的数据作为训练集;步骤2,以训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对深层认知推理网络模型进行优化,得到优化后的网络模型;步骤3,通过优化后的网络模型对测试集中的问题进行处理,并对各个候选答案实体打分,得分最高的候选答案实体即为给定自然语言问题的答案。通过模拟人类的认知推理机制,由层次化的网络模型从不同角度进行知识推理,有效地利用并建模了知识图谱中的节点级别与边级别的信息,对知识图谱多跳问答取得显著性能提升。

    一种面向图神经网络的标签感知协同训练方法

    公开(公告)号:CN113361627A

    公开(公告)日:2021-09-07

    申请号:CN202110697015.8

    申请日:2021-06-23

    Abstract: 本发明公开了一种面向图神经网络的标签感知协同训练方法,包括:步1,用图神经网络将已知标签沿连边传播估计出各结点初步标签取值分布,衡量各结点的初步标签取值分布属于某类的初步预测置信度;步2,为初步预测置信度最高的预定个数结点标注伪标签形成增广的有标注图结构数据集;步3,利用图神经网络学习各结点的向量表示并做出全局预测,得出未标注结点的最终预测值;步4,将最终预测值作为未标注结点的初始标签,重复步1至步4,得出各未标注结点的最终分类结果。通过充分利用少量已知标签建模全局标签依赖性,结合标签传播和图神经网络特征传播优势,将全局标签依赖信息隐式融入图神经网络训练过程,得到更客观结点表示,提升分类性能。

    基于认知推理的知识图谱多跳问答方法及模型

    公开(公告)号:CN113360604A

    公开(公告)日:2021-09-07

    申请号:CN202110697004.X

    申请日:2021-06-23

    Abstract: 本发明公开了一种基于认知推理的知识图谱多跳问答方法及模型,方法包括:步骤1,从给定的问题‑答案对数据中随机选取多批次的数据作为训练集;步骤2,以训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对深层认知推理网络模型进行优化,得到优化后的网络模型;步骤3,通过优化后的网络模型对测试集中的问题进行处理,并对各个候选答案实体打分,得分最高的候选答案实体即为给定自然语言问题的答案。通过模拟人类的认知推理机制,由层次化的网络模型从不同角度进行知识推理,有效地利用并建模了知识图谱中的节点级别与边级别的信息,对知识图谱多跳问答取得显著性能提升。

    面向张量分解型知识图谱补全的正则项确定方法及装置

    公开(公告)号:CN112784055A

    公开(公告)日:2021-05-11

    申请号:CN202011215923.0

    申请日:2020-11-04

    Abstract: 本实施例公开了一种面向张量分解型知识图谱补全的正则项确定方法及装置,方法包括:确定原始模型,原始模型为基于张量分解模型的打分函数;确定与原始模型对应的对偶模型,对偶模型为基于距离的模型打分函数;确定原始模型和对偶模型之间的对偶性;基于对偶性确定原始模型对应的第一正则项。确定了第一正则项后,后续可将其应用于面向张量分解型知识图谱补全,从而在保持基于张量分解的知识图谱补全模型表达性的同时,防止出现过拟合问题;同时该实现方案可以广泛应用于各种基于张量分解的模型,适用范围更广。

    压缩深度图神经网络模型的方法、设备和存储介质

    公开(公告)号:CN115456146A

    公开(公告)日:2022-12-09

    申请号:CN202211123990.9

    申请日:2022-09-15

    Abstract: 本发明公开了一种压缩深度图神经网络模型的方法、设备及存储介质,该方法通过向量表示鉴别模块和对数几率鉴别模块分别对教师图神经网络模型和学生图神经网络模型的向量表示和对数几率进行区分得出区分结果,根据区分结果迭代更新学生图神经网络模型,二者交替训练,直到完成指定的训练轮次;当训练过程收敛时,保存此时学生图神经网络模型的网络参数;用训练完成后的学生图神经网络模型以训练步骤保存的网络参数在图结构上前向预测,得出每个节点的向量表示,使用该学生图神经网络模型的分类器预测验证数据集上节点类别。使轻量级图神经网络模型在节省深层图神经网络模型80%以上参数量情况下,获得与深层图神经网络模型相当甚至更优的预测表现。

    面向知识图谱多跳推理的锥嵌入方法

    公开(公告)号:CN113449075A

    公开(公告)日:2021-09-28

    申请号:CN202110692090.5

    申请日:2021-06-22

    Abstract: 本发明公开了一种面向知识图谱多跳推理的锥嵌入方法,包括:步骤1,通过训练集利用梯度下降算法对查询锥嵌入模型进行训练,训练集为给定的一个包含若干实体的知识图谱数据集的子集;查询锥嵌入模型能将实体和查询表示为2维锥的笛卡尔积,并在嵌入空间中设置与、或、非算子,建模所有一阶逻辑查询;步骤2,利用训练好的查询锥嵌入模型对一个给定查询,先将其生成锥嵌入,然后计算该锥嵌入与各个实体嵌入之间的距离,以距离最近的实体作为该查询的答案。该方法由于能对查询涉及多种FOL算子时,对答案集的基数进行建模,很好的满足了知识图谱的多跳推理任务中的应用,由于能准确估计查询所对应答案集合的大小,易于实现精确的推理。

    基于主题实体语境迭代优化的全局实体链接方法

    公开(公告)号:CN113360605A

    公开(公告)日:2021-09-07

    申请号:CN202110698612.2

    申请日:2021-06-23

    Abstract: 本发明公开了一种基于主题实体语境迭代优化的全局实体链接方法,包括:步骤1,以预先训练好的主题实体迭代语境细化模型,对包含多个指称的文档和包含多个候选实体的知识图谱进行实体链接处理;步骤2,所述主题实体迭代语境细化模型处理过程中,对知识图谱中每个指称的候选实体进行迭代优化打分,最终选择得分最高的候选实体作为实体链接的结果。该方法计算效率高,性能优异。

Patent Agency Ranking