-
公开(公告)号:CN112966527B
公开(公告)日:2022-12-30
申请号:CN202110429116.7
申请日:2021-04-21
Applicant: 吉林大学
IPC: G06F40/30 , G06F40/295 , G06N3/04 , G06N5/04
Abstract: 本发明公开的属于自动化识别技术领域,具体为一种基于自然语言推理的关系抽取模型的生成方法的生成方法,其包括:DescriptionLayer;EncoderLayer;InferenceLayer;ClassificationLayer。本发明在公开的数据集SemEval 2010Task‑8上与目前较为先进的四个模型进行对比试验:1)基于GCN的FAT‑RE模型,2)基于CNN和注意力机制的Att‑Pooling‑CNN模型,3)基于BERT的R‑BERT模型,4)基于BERT的KnowBERT模型,从而使该模型整合了知识库中的信息,且本模型的F1分数达到90.1%,高于其他四个模型,说明本模型通过构造关系描述和多损失函数叠加,有效地提升了模型的性能,向模型中注入了先验知识,并在推理的过程中。
-
公开(公告)号:CN112966527A
公开(公告)日:2021-06-15
申请号:CN202110429116.7
申请日:2021-04-21
Applicant: 吉林大学
IPC: G06F40/30 , G06F40/295 , G06N3/04 , G06N5/04
Abstract: 本发明公开的属于自动化识别技术领域,具体为一种基于自然语言推理的关系抽取模型,其包括:DescriptionLayer(描述层);EncoderLayer(编码器层);InferenceLayer(推理层);ClassificationLayer(分类层)。本发明在公开的数据集SemEval 2010Task‑8上与目前较为先进的四个模型进行对比试验:1)基于GCN的FAT‑RE模型,2)基于CNN和注意力机制的Att‑Pooling‑CNN模型,3)基于BERT的R‑BERT模型,4)基于BERT的KnowBERT模型,从而使该模型整合了知识库中的信息,且本模型的F1分数达到90.1%,高于其他四个模型,说明本模型通过构造关系描述和多损失函数叠加,有效地提升了模型的性能,向模型中注入了先验知识,并在推理的过程中,根据关系描述来选择目标句子中的关键信息和过滤目标句子中的噪音。
-