-
公开(公告)号:CN112800190A
公开(公告)日:2021-05-14
申请号:CN202011249692.5
申请日:2020-11-11
Applicant: 重庆邮电大学
IPC: G06F16/332 , G06F16/35 , G06F40/211 , G06F40/279 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明涉及智能问答技术领域,具体涉及一种基于Bert模型的意图识别与槽值填充联合预测方法,该方法包括:输入目标文本,得到目标文本的词向量、段向量和位置向量,将词向量、段向量和位置向量拼接作为Bert模型的输入向量,输入训练好的Bert模型中,训练好的Bert模型输出意图表示向量和槽值序列表示向量,将意图表示向量和槽值序列表示向量在Gate层通过权重计算,计算出联合作用因子,将联合作用因子作用于槽值序列表示向量,最终输出预测的意图分类和槽值序列。本发明在Bert层上使用Gate机制,充分利用意图识别和槽值填充的内在联系,降低任务错误预测率。
-
公开(公告)号:CN112328767A
公开(公告)日:2021-02-05
申请号:CN202011255769.X
申请日:2020-11-11
Applicant: 重庆邮电大学
IPC: G06F16/332 , G06F16/33 , G06F40/211 , G06F40/289 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明属于自然语言处理技术与自动问答系统领域,具体涉及一种基于BERT模型和比较聚合框架的问答匹配方法,该方法包括:实时获取数据,对数据进行预处理;将预处理后的数据输入到训练好的比较聚合问答匹配模型中,得到问题与答案的匹配得分,根据得分输出最佳答案;所述比较聚合问答匹配模型包括BERT模型、Transformer编码器以及比较聚合框架;本发明利用BERT模型获得上下文相关的词嵌入,解决了以往方法中问题句与答案句交互不充分的问题。再单独使用Transformer模型的编码器进一步对用于比较的词向量进行注意力权重分配,使得比较层能够充分探究问题序列和答案序列间复杂的语义匹配关系。
-
公开(公告)号:CN114444519B
公开(公告)日:2024-08-02
申请号:CN202210078557.1
申请日:2022-01-24
Applicant: 重庆邮电大学
IPC: G06F40/35 , G06F16/35 , G06F40/166 , G06N3/0455 , G06N3/0442 , G06N3/08
Abstract: 本发明属于自然语言处理领域,具体涉及一种基于Seq2Seq模型的情感对话生成方法;该方法包括:获取对话数据,采用情感分类器对对话数据进行分类,得到不同情感类别的对话数据,对话数据包括提问语句和回复语句;采用指定情感类别的对话数据对对话生成模型进行训练,得到训练好的Seq2Seq模型;用户将提问内容和指定情感类别输入到训练好的Seq2Seq模型中,得到带有指定情感的回复语句;本发明引入情感指导机制和生成对抗网络对对话生成模型进行训练,极大加强了对话生成模型所生成语句的情感准确率以及保证了生成语句的质量;本发明能在提高情感准确率的情况下不降低生成语句质量,具有广阔的应用前景。
-
公开(公告)号:CN116415153A
公开(公告)日:2023-07-11
申请号:CN202310563793.7
申请日:2023-05-18
Applicant: 重庆邮电大学
IPC: G06F18/214 , G06F18/24 , G06F18/25 , G06N3/04 , G06N3/09
Abstract: 本发明属于自然语言处理技术领域,具体涉及一种基于监督对比学习的文本对话情绪识别优化方法,包括:对数据集中的数据进行预处理;将预处理后的数据映射到说话者词典中,并添加提示信息;将添加提示信息后的数据输入到预训练语言模型中,得到包含了说话者信息的上下文表示;构建说话者记忆信息的表示;将说话者记忆信息的表示与上下文表示相加,得到目标语句的表示;将目标语句的表示输入到情绪识别模型中,得到识别结果;本发明引入了说话者记忆模块作为外部信息,丰富了模型信息;通过说话者词典映射的方式,令模型能更好地识别说话者;添加了难度评估函数以及课程学习策略,令训练时期的样本难易程度过渡更加平滑,有效缓解极端样本问题。
-
公开(公告)号:CN116311285A
公开(公告)日:2023-06-23
申请号:CN202310336981.6
申请日:2023-03-31
Applicant: 重庆邮电大学
Abstract: 本发明属于自然语言处理技术领域,具体涉及一种基于灰度标签学习与说话者记忆的文本对话情绪识别优化方法,包括:对数据集中的数据进行预处理;将预处理后的数据映射到说话者词典中,并添加分隔提示标记;将添加分隔提示标记后的数据输入到预训练语言模型中,得到包含了说话者信息的上下文表示;构建说话者记忆信息的表示;将说话者记忆信息的表示与上下文表示相加,得到目标语句的表示;将目标语句的表示结合灰度标签以及独热情绪标签输入到情绪识别模型中,得到识别结果;本发明引入了说话者记忆模块作为外部信息,丰富了模型信息;本发明添加了灰度标签学习策略,反映情绪标签内部的关系,提升模型情绪识别能力。
-
公开(公告)号:CN112527959B
公开(公告)日:2023-05-30
申请号:CN202011443363.4
申请日:2020-12-11
Applicant: 重庆邮电大学
IPC: G06F16/33 , G06F16/35 , G06F40/216 , G06F40/289 , G06F40/30 , G06F18/241 , G06F18/2415 , G06N3/0464 , G06N3/048 , G06N3/08
-
公开(公告)号:CN112328767B
公开(公告)日:2022-10-14
申请号:CN202011255769.X
申请日:2020-11-11
Applicant: 重庆邮电大学
IPC: G06F16/332 , G06F16/33 , G06F40/211 , G06F40/289 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明属于自然语言处理技术与自动问答系统领域,具体涉及一种基于BERT模型和比较聚合框架的问答匹配方法,该方法包括:实时获取数据,对数据进行预处理;将预处理后的数据输入到训练好的比较聚合问答匹配模型中,得到问题与答案的匹配得分,根据得分输出最佳答案;所述比较聚合问答匹配模型包括BERT模型、Transformer编码器以及比较聚合框架;本发明利用BERT模型获得上下文相关的词嵌入,解决了以往方法中问题句与答案句交互不充分的问题。再单独使用Transformer模型的编码器进一步对用于比较的词向量进行注意力权重分配,使得比较层能够充分探究问题序列和答案序列间复杂的语义匹配关系。
-
公开(公告)号:CN114444695A
公开(公告)日:2022-05-06
申请号:CN202210080808.X
申请日:2022-01-24
Applicant: 重庆邮电大学
Abstract: 本发明属于自然语言处理领域,具体涉及一种基于预训练模型和图卷积神经网络的知识问答方法;该方法包括:根据问题信息构建知识子图;采用PageRank算法完善知识子图;采用预训练模型对问题进行编码,得到初始问题向量;采用图卷积神经网络对知识子图进行编码,得到初始实体向量;根据初始问题向量和初始实体向量对知识子图进行更新;计算更新后的知识子图中所有关系的关系得分,根据关系得分构建知识子图关系集合;计算初始问答匹配分数;计算问题与每个候选答案的最终问答匹配分数,选择最终问答匹配分数最高的候选答案作为问题的答案;本发明能提高多跳推理知识问答的答案准确率,具有广阔的应用前景。
-
公开(公告)号:CN112527959A
公开(公告)日:2021-03-19
申请号:CN202011443363.4
申请日:2020-12-11
Applicant: 重庆邮电大学
IPC: G06F16/33 , G06F16/35 , G06F40/216 , G06F40/289 , G06F40/30 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明请求保护一种基于无池化卷积嵌入和注意分布神经网络的新闻分类方法,它利用特征和权重作为分类过程中的关键因素。其机制是使用一种在嵌入层中进行卷积以提取局部特征,删除池化层以减少信息丢失,然后添加注意力机制以重新分配权重以从而获得文本的全局特征。该模型不仅捕获了文本的深刻特征,还捕获了新闻各部分的重要性。卷积神经网络(CNN)由于具有提取局部特征和位置不变特征的优势而在文本分类任务中发挥了重要作用。注意力机制由于其对文本上下文信息的提取,以及更加关注重要部分的特点,强化关键信息权重,两者结合有更强的特征提取能力。结合无池化CNN和全局注意力机制来处理新闻分类问题可以显著提高文本分类的准确率。
-
公开(公告)号:CN112270193A
公开(公告)日:2021-01-26
申请号:CN202011201643.4
申请日:2020-11-02
Applicant: 重庆邮电大学
IPC: G06F40/295 , G06F40/30 , G06K9/62 , G06N3/04
Abstract: 本发明涉及自然语言处理领域,具体涉及一种基于BERT‑FLAT的中文命名实体识别方法,包括:将任意中文句子输入训练好的实体识别模型中,输出训练集中每个句子的词性标注结果,得到命名实体识别结果。本发明基于BERT‑Flat‑Lattice‑CRF的实体识别模型,BERT预训练语言模型和Flat‑Lattice结构,从大规模语料库中学习的BERT预训练语言模型可以通过上下文计算单词的向量表征,可以表征单词的多义性,增强句子的语义表征;Flat‑Lattice结构引入了词汇信息,充分地挖掘出文本中潜在的隐藏信息,达到词汇增强效果,显著地提升了中文命名实体识别的准确率。
-
-
-
-
-
-
-
-
-