-
公开(公告)号:CN112270193A
公开(公告)日:2021-01-26
申请号:CN202011201643.4
申请日:2020-11-02
Applicant: 重庆邮电大学
IPC: G06F40/295 , G06F40/30 , G06K9/62 , G06N3/04
Abstract: 本发明涉及自然语言处理领域,具体涉及一种基于BERT‑FLAT的中文命名实体识别方法,包括:将任意中文句子输入训练好的实体识别模型中,输出训练集中每个句子的词性标注结果,得到命名实体识别结果。本发明基于BERT‑Flat‑Lattice‑CRF的实体识别模型,BERT预训练语言模型和Flat‑Lattice结构,从大规模语料库中学习的BERT预训练语言模型可以通过上下文计算单词的向量表征,可以表征单词的多义性,增强句子的语义表征;Flat‑Lattice结构引入了词汇信息,充分地挖掘出文本中潜在的隐藏信息,达到词汇增强效果,显著地提升了中文命名实体识别的准确率。
-
公开(公告)号:CN112347269A
公开(公告)日:2021-02-09
申请号:CN202011255816.0
申请日:2020-11-11
Applicant: 重庆邮电大学
Abstract: 本发明属于自然语言处理领域,具体涉及一种基于BERT和Att‑BiLSTM的论点对识别方法,包括获取法律判决书中的数据,对数据进行预处理;将预处理的数据输入到训练好的法律论点对分类模型中,识别出诉方辩方相对应的法律论点对,根据法律论点对进行司法判决;所述法律论点对分类模型包括BERT模型和基于注意力长短期记忆循环神经网络Att‑BiLSTM分类模型;本发明在进行数据预测过程中加入了分层Attention机制,该机制为每个单词分配一个注意力权重,并为每个句子分配一个注意力权重,融合了句子级和词级特征,可以将重要特征突出,避免长序列导致的历史记忆变弱的问题,可以有效的提高识别效果。
-