-
公开(公告)号:CN117153141A
公开(公告)日:2023-12-01
申请号:CN202310978819.4
申请日:2023-08-04
Applicant: 东南大学
Abstract: 本发明公开了一种基于约束生成和扁平事件表示的语音事件抽取方法,包括以下步骤:构建面向语音的事件抽取框架;利用Text‑to‑Speech工具合成语音,设计扁平事件表示方法,构建语音事件抽取数据集;以端到端的方式训练语音事件抽取模型,并且在推理过程注入事件模式知识以实现可控文本生成。本发明首次提出面向语音的结构化语义事件抽取任务,贡献了两个相关数据集,设计了端到端语音事件抽取模型,通过约束生成和扁平事件表示方法有效提升了模型的准确率和抽取效率。
-
公开(公告)号:CN110070093B
公开(公告)日:2023-04-25
申请号:CN201910278460.3
申请日:2019-04-08
Applicant: 东南大学
IPC: G06F18/10 , G06F18/214 , G06F40/211 , G06N3/0464 , G06N3/088 , G06N3/094
Abstract: 本发明公开了一种基于对抗学习的远监督关系抽取去噪方法,可从本质上去除远监督生成的数据中的噪声。所述的远监督关系抽取去噪方法,所述方法包括:步骤10)建立预测器P和判别器D模型:步骤20)基于卷积神经网络,建立预测器P和判别器D结构:通过巻积层提取句子级的特征,然后将其与词汇级特征相连起来,得到最终的句子表示,将句子的表示输入到一个全连接层,并得到一个概率;对于预测器P,所述概率代表着一个实例包含关系r的可能性;对于判别器D,所述概率代表着一个句子来自Dl而不是Dp的可能性;步骤30)优化所述预测器P和判别器D,得到优化后的预测器P和判别器D;步骤40)利用优化后的预测器P清除噪声。
-
公开(公告)号:CN110059314B
公开(公告)日:2023-04-25
申请号:CN201910278459.0
申请日:2019-04-08
Applicant: 东南大学
IPC: G06F40/295 , G06F16/36 , G06F16/35 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于增强学习的关系抽取方法,包括:步骤10)构建强化学习的关系抽取框架;所述关系抽取框架包括基于DNN模型的关系抽取模型、用于表示关系的人类知识形式的软规则和含有查询问题的关系证据、外部的知识源和智能体;步骤20)获取所述基于DNN模型的关系抽取模型的抽取结果;步骤30)所述智能体在强化学习环境中,利用所述软规则和所述关系证据,对所述抽取结果进行动态调整。所述基于增强学习的关系抽取方法可以增强现有的基于DNN的关系抽取模型。
-
公开(公告)号:CN115713072A
公开(公告)日:2023-02-24
申请号:CN202211417877.1
申请日:2022-11-14
Applicant: 东南大学
IPC: G06F40/186 , G06F40/279 , G06F40/247 , G06F16/35
Abstract: 本发明公开了一种基于提示学习和上下文感知的关系类别推断系统及方法,首先执行文本预处理获取规范的文本内容;根据文本与关系词的联系设计提示学习模板,将文本代入提示学习的模板,引入标签词掩码并拼接提示短语;之后经过知识增强的词映射器,获取掩码位置的标签词进行监督学习,标注关系词三元组时则将标签词通过词映射器还原成关系词和实体词;然后按关系词位置将文本划分为上文和下文,然后对上下文分别进行无监督聚类,推断上下文均在相同类别的不同关系词为同一类别,突破了关系类别仅依赖关系词本身而不考虑语境信息的限制,解决了增量关系抽取场景中无标注文本的关系类型标注问题。
-
公开(公告)号:CN113590799B
公开(公告)日:2022-11-18
申请号:CN202110935495.7
申请日:2021-08-16
Applicant: 东南大学
IPC: G06F16/332 , G06F16/36 , G06K9/62
Abstract: 本发明公开了一种基于多视角推理的弱监督知识图谱问答方法,主要通过解决知识图谱问答在弱监督条件下的长路径推理和伪路径问题。首先利用自然语言问题中涉及的知识图谱实体获取知识图谱子图。然后,利用知识图谱表示学习算法将知识图谱三元组映射为向量表示,同时在预训练语言模型的基础上将问题和子图中的关系映射为向量表示。接着,计算问题的向量表示与关系向量表示的语义匹配度和问题向量表示在知识图谱三元组中的结构匹配度。最后,通过监督学习的方法先优化与问题语义相似的关系,再优化与问题语义最相近的关系,得到一种在弱监督条件下的知识图谱问答核心路径推理模型。
-
公开(公告)号:CN114490954B
公开(公告)日:2022-07-15
申请号:CN202210403218.6
申请日:2022-04-18
Applicant: 东南大学
IPC: G06F16/33 , G06F16/35 , G06F40/126 , G06F40/205 , G06N3/04 , G06N3/08 , G06N5/04
Abstract: 本发明公开了一种基于任务调节的文档级生成式事件抽取方法,包括以下步骤:构建基于任务调节的文档级生成式事件抽取框架;根据事件抽取任务的事件类型来创建编码器前缀,然后注入编码器;根据事件抽取任务的事件类型和输入文档的词元表示来创建解码器前缀,然后注入解码器;利用最小负对数似然损失函数来训练事件抽取神经网络模型,并且在测试过程中使用约束解码算法;该方案构建了一个生成式事件抽取模型,它将事件类型作为前缀注入基于Transformer模型的每一层,有效提升了模型的F1值,在文档级和零样本事件抽取任务中表现出优越的性能,实现了有效的零样本学习和监督学习,在三个主流数据集上均取得了最先进的效果。
-
公开(公告)号:CN114492460B
公开(公告)日:2022-07-12
申请号:CN202210365659.1
申请日:2022-04-08
Applicant: 东南大学
IPC: G06F40/30 , G06F40/216 , G06F16/35 , G06N20/00
Abstract: 本发明公开了一种基于衍生提示学习的事件因果抽取方法,该方案利用于因果关系抽取相关的衍生任务增强因果关系抽取模型的训练效果。首先,通过自然语言中因果关系的表达特征,在因果关系抽取任务上衍生出两个新的任务,分别是因果提示词预测和因果事件预测。因果提示词预测旨在识别文本中表达因果关系的显示提示词,因果事件预测旨在结合上下文语义预测与目标事件有因果关系的其他事件。随后,将因果关系抽取和两个衍生任务建模为提示学习形式,并设置了门控单元将衍生任务的信息提供给因果关系抽取模型。最后,通过基于教师机制的监督学习激发预训练自然语言模型中与这些任务相关的潜力获得最终的因果关系抽取模型。
-
公开(公告)号:CN114492460A
公开(公告)日:2022-05-13
申请号:CN202210365659.1
申请日:2022-04-08
Applicant: 东南大学
IPC: G06F40/30 , G06F40/216 , G06F16/35 , G06N20/00
Abstract: 本发明公开了一种基于衍生提示学习的事件因果抽取方法,该方案利用于因果关系抽取相关的衍生任务增强因果关系抽取模型的训练效果。首先,通过自然语言中因果关系的表达特征,在因果关系抽取任务上衍生出两个新的任务,分别是因果提示词预测和因果事件预测。因果提示词预测旨在识别文本中表达因果关系的显示提示词,因果事件预测旨在结合上下文语义预测与目标事件有因果关系的其他事件。随后,将因果关系抽取和两个衍生任务建模为提示学习形式,并设置了门控单元将衍生任务的信息提供给因果关系抽取模型。最后,通过基于教师机制的监督学习激发预训练自然语言模型中与这些任务相关的潜力获得最终的因果关系抽取模型。
-
公开(公告)号:CN113590799A
公开(公告)日:2021-11-02
申请号:CN202110935495.7
申请日:2021-08-16
Applicant: 东南大学
IPC: G06F16/332 , G06F16/36 , G06K9/62
Abstract: 本发明公开了一种基于多视角推理的弱监督知识图谱问答方法,主要通过解决知识图谱问答在弱监督条件下的长路径推理和伪路径问题。首先利用自然语言问题中涉及的知识图谱实体获取知识图谱子图。然后,利用知识图谱表示学习算法将知识图谱三元组映射为向量表示,同时在预训练语言模型的基础上将问题和子图中的关系映射为向量表示。接着,计算问题的向量表示与关系向量表示的语义匹配度和问题向量表示在知识图谱三元组中的结构匹配度。最后,通过监督学习的方法先优化与问题语义相似的关系,再优化与问题语义最相近的关系,得到一种在弱监督条件下的知识图谱问答核心路径推理模型。
-
公开(公告)号:CN112966115B
公开(公告)日:2021-08-06
申请号:CN202110541764.1
申请日:2021-05-18
Applicant: 东南大学
IPC: G06F16/35 , G06F40/126 , G06N20/00
Abstract: 本申请公开了一种基于记忆损失预测和延迟训练的主动学习事件抽取方法,该方案通过预测无标注样本的损失对其进行筛选,获取高质量的无标注样本进行标注。首先构建两个记忆模块,分别是已学习记忆模块和已选择记忆模块,已学习记忆模块在监督学习模型训练的过程中,存储已经学过的信息到已学习记忆模块,在样本选择的过程中,已选择记忆模块随着样本的选择存储已经选择的样本信息,综合两个记忆模块的信息对新样本的损失进行预测,得到样本损失后,利用内‑外损失排序策略启发式地选择有价值的样本进行标注,同时,提出了一种延迟训练策略,模拟样本选择场景对样本损失模型进行监督,最后得到一种低标注成本的高质量事件抽取模型。
-
-
-
-
-
-
-
-
-