-
公开(公告)号:CN112507699B
公开(公告)日:2022-11-18
申请号:CN202010972885.7
申请日:2020-09-16
Applicant: 东南大学
IPC: G06F40/279 , G06F40/211 , G06F16/36 , G06N3/04 , G06N3/08
Abstract: 本专利公开了一种远程监督关系抽取方法,主要用于解决远程监督关系抽取中信息不充分和监督信息存在噪声的问题。本专利构建了引入多源额外信息的异构图,并以图卷积网络的方式进行建模。本专利首先对所有的信息进行编码,包括待抽取的文本、知识图谱中的实体信息、启发式的文本路径等。然后,本专利把每种信息构建成一个节点,将信息之间的关联性表示为边。接着,通过图卷积网络对所有节点进行特征抽取,然后通过注意力机制对噪声信息进行过滤。最后,通过监督学习的方式对整个框架中的参数进行更新,最后学习到一种灵活性高、表达能力强的关系抽取模型。
-
公开(公告)号:CN112507699A
公开(公告)日:2021-03-16
申请号:CN202010972885.7
申请日:2020-09-16
Applicant: 东南大学
IPC: G06F40/279 , G06F40/211 , G06F16/36 , G06N3/04 , G06N3/08
Abstract: 本专利公开了一种远程监督关系抽取方法,主要用于解决远程监督关系抽取中信息不充分和监督信息存在噪声的问题。本专利构建了引入多源额外信息的异构图,并以图卷积网络的方式进行建模。本专利首先对所有的信息进行编码,包括待抽取的文本、知识图谱中的实体信息、启发式的文本路径等。然后,本专利把每种信息构建成一个节点,将信息之间的关联性表示为边。接着,通过图卷积网络对所有节点进行特征抽取,然后通过注意力机制对噪声信息进行过滤。最后,通过监督学习的方式对整个框架中的参数进行更新,最后学习到一种灵活性高、表达能力强的关系抽取模型。
-
公开(公告)号:CN114492460B
公开(公告)日:2022-07-12
申请号:CN202210365659.1
申请日:2022-04-08
Applicant: 东南大学
IPC: G06F40/30 , G06F40/216 , G06F16/35 , G06N20/00
Abstract: 本发明公开了一种基于衍生提示学习的事件因果抽取方法,该方案利用于因果关系抽取相关的衍生任务增强因果关系抽取模型的训练效果。首先,通过自然语言中因果关系的表达特征,在因果关系抽取任务上衍生出两个新的任务,分别是因果提示词预测和因果事件预测。因果提示词预测旨在识别文本中表达因果关系的显示提示词,因果事件预测旨在结合上下文语义预测与目标事件有因果关系的其他事件。随后,将因果关系抽取和两个衍生任务建模为提示学习形式,并设置了门控单元将衍生任务的信息提供给因果关系抽取模型。最后,通过基于教师机制的监督学习激发预训练自然语言模型中与这些任务相关的潜力获得最终的因果关系抽取模型。
-
公开(公告)号:CN114492460A
公开(公告)日:2022-05-13
申请号:CN202210365659.1
申请日:2022-04-08
Applicant: 东南大学
IPC: G06F40/30 , G06F40/216 , G06F16/35 , G06N20/00
Abstract: 本发明公开了一种基于衍生提示学习的事件因果抽取方法,该方案利用于因果关系抽取相关的衍生任务增强因果关系抽取模型的训练效果。首先,通过自然语言中因果关系的表达特征,在因果关系抽取任务上衍生出两个新的任务,分别是因果提示词预测和因果事件预测。因果提示词预测旨在识别文本中表达因果关系的显示提示词,因果事件预测旨在结合上下文语义预测与目标事件有因果关系的其他事件。随后,将因果关系抽取和两个衍生任务建模为提示学习形式,并设置了门控单元将衍生任务的信息提供给因果关系抽取模型。最后,通过基于教师机制的监督学习激发预训练自然语言模型中与这些任务相关的潜力获得最终的因果关系抽取模型。
-
公开(公告)号:CN112966115B
公开(公告)日:2021-08-06
申请号:CN202110541764.1
申请日:2021-05-18
Applicant: 东南大学
IPC: G06F16/35 , G06F40/126 , G06N20/00
Abstract: 本申请公开了一种基于记忆损失预测和延迟训练的主动学习事件抽取方法,该方案通过预测无标注样本的损失对其进行筛选,获取高质量的无标注样本进行标注。首先构建两个记忆模块,分别是已学习记忆模块和已选择记忆模块,已学习记忆模块在监督学习模型训练的过程中,存储已经学过的信息到已学习记忆模块,在样本选择的过程中,已选择记忆模块随着样本的选择存储已经选择的样本信息,综合两个记忆模块的信息对新样本的损失进行预测,得到样本损失后,利用内‑外损失排序策略启发式地选择有价值的样本进行标注,同时,提出了一种延迟训练策略,模拟样本选择场景对样本损失模型进行监督,最后得到一种低标注成本的高质量事件抽取模型。
-
公开(公告)号:CN112966115A
公开(公告)日:2021-06-15
申请号:CN202110541764.1
申请日:2021-05-18
Applicant: 东南大学
IPC: G06F16/35 , G06F40/126 , G06N20/00
Abstract: 本申请公开了一种基于记忆损失预测和延迟训练的主动学习事件抽取方法,该方案通过预测无标注样本的损失对其进行筛选,获取高质量的无标注样本进行标注。首先构建两个记忆模块,分别是已学习记忆模块和已选择记忆模块,已学习记忆模块在监督学习模型训练的过程中,存储已经学过的信息到已学习记忆模块,在样本选择的过程中,已选择记忆模块随着样本的选择存储已经选择的样本信息,综合两个记忆模块的信息对新样本的损失进行预测,得到样本损失后,利用内‑外损失排序策略启发式地选择有价值的样本进行标注,同时,提出了一种延迟训练策略,模拟样本选择场景对样本损失模型进行监督,最后得到一种低标注成本的高质量事件抽取模型。
-
-
-
-
-