语音翻译模型训练方法、装置、电子设备及存储介质

    公开(公告)号:CN117113091A

    公开(公告)日:2023-11-24

    申请号:CN202311380008.0

    申请日:2023-10-24

    Abstract: 本发明提供一种语音翻译模型训练方法、装置、电子设备及存储介质,应用于自然语言处理技术领域。该方法包括:获取第一语音数据、第一文本数据、第一语音识别数据、第一文本翻译数据以及第一语音翻译数据;分别对所述第一语音数据、所述第一文本数据以及所述第一语音识别数据进行掩码操作,生成多个掩码序列;基于所述多个掩码序列训练语音翻译模型的编码器;在所述编码器的第一损失函数处于收敛状态的情况下,冻结所述编码器的参数,并基于所述第一文本翻译数据训练所述语音翻译模型的解码器;基于所述第一语音翻译数据对所述语音翻译模型进行训练。

    神经机器翻译方法、装置、电子设备及介质

    公开(公告)号:CN117034968A

    公开(公告)日:2023-11-10

    申请号:CN202311304326.9

    申请日:2023-10-10

    Abstract: 本发明提供一种神经机器翻译方法、装置、电子设备及介质,属于机器翻译技术领域。该方法应用于机器翻译模型,机器翻译模型包括编码器和解码器,该方法包括:识别待翻译的源语言句子对应的目标翻译规则模板,所述目标翻译规则模板包括第一源端模板、第一目标端模板和第一源端变量片段;基于第一约束提示序列和待翻译的源语言句子,得到编码器的输入;基于第一约束提示序列和解码器的初始输入序列,得到解码器的输入;所述第一约束提示序列为依次拼接所述第一源端模板、所述第一源端变量片段和所述第一目标端模板后得到的;基于编码器的输入和解码器的输入,得到机器翻译模型输出的翻译结果。本发明提供的神经机器翻译方法,可以提高翻译准确性。

    基于对话逻辑的多轮口语理解方法、系统、装置

    公开(公告)号:CN110413752B

    公开(公告)日:2021-11-16

    申请号:CN201910661448.0

    申请日:2019-07-22

    Abstract: 本发明属于人机对话技术领域,具体涉及一种基于对话逻辑的多轮口语理解方法、系统、装置,旨在解决现有多轮口语理解方法对历史对话数据利用率低的问题。本系统方法包括获取当前对话数据、历史对话数据;通过双向门控循环神经网络,分别将当前对话数据和历史对话数据编码成输入向量和记忆向量;根据所述输入向量、所述记忆向量,通过基于注意力机制的记忆检索方法生成语境知识向量;基于所述语境知识向量和所述当前对话数据,通过多轮口语理解模型获取当前对话数据的意图分类信息和语义槽填充信息。本发明可以在多轮口语理解中对历史对话数据高效的利用,提升语言理解在多轮场景下的性能。

    融合用户和整体评价信息的评价对象情感分类方法及装置

    公开(公告)号:CN109241993B

    公开(公告)日:2021-10-26

    申请号:CN201810832903.4

    申请日:2018-07-26

    Abstract: 本发明属于情感分类技术领域,具体提供了一种融合用户和整体标签信息的评价对象情感分类方法及装置。旨在解决现有技术不考虑不同用户的差异性和忽略整体评价信息导致对评价对象情感极性评价不准确的问题。本发明提供了一种融合用户和整体评价信息的评价对象情感分类方法,包括基于预先获取的评论信息以及相应的用户信息和整体评价信息得到评论向量;基于预先构建的评价对象情感分类模型并根据预设的评价对象,对评论向量进行情感预测,得到每个评价对象对应的情感极性。本发明的方法全面考虑了用户信息和整体评价信息对评价对象情感分类的影响,相对于其他方法提升了预测的准确率。本发明的装置同样具有上述有益效果。

    基于BART模型的口语理解数据增强方法、系统及设备

    公开(公告)号:CN113239151A

    公开(公告)日:2021-08-10

    申请号:CN202110540820.X

    申请日:2021-05-18

    Inventor: 周玉 林海涛 向露

    Abstract: 本发明属于自然语言处理技术领域,具体涉及了一种基于BART模型的口语理解数据增强方法、系统及设备,旨在解决的问题。本发明包括:将训练数据进行变换,去除其语义槽值信息或上下文表达方式的信息;利用预训练语言模型BART在变换的数据上进行调优,获得两种调优模型;分别使用两种调优模型和少量训练数据进行增强数据的生成;对增强数据进行过滤处理,获得最终的增强训练数据。本发明在只利用少量训练数据的前提下,可以生成具有不同语义槽值和上下文的带标签的增强训练数据,有效地提高了口语理解模型在少量数据下的语义槽填充的性能。

    多模态机器翻译方法、装置、电子设备和存储介质

    公开(公告)号:CN112800785A

    公开(公告)日:2021-05-14

    申请号:CN202110392717.5

    申请日:2021-04-13

    Abstract: 本发明提供一种多模态机器翻译方法、装置、电子设备和存储介质,所述方法包括:确定待翻译的源语言文本;将源语言文本输入至翻译模型中,得到翻译模型输出的目标语言文本;翻译模型是基于样本源语言文本和样本目标语言文本,以及与样本源语言文本匹配的样本图像,联合重建模型训练得到的;翻译模型与重建模型共用特征编码层,模型训练过程中特征编码层用于编码第一序列和第二序列,翻译模型基于第一序列的编码进行翻译,重建模型基于第二序列的编码进行重建,第一序列基于样本源语言文本确定,第二序列基于样本源语言文本中的各实体在样本图像中的区域图像和样本源语言文本的非实体确定,提高了质量提升的可解释性并且降低了翻译的复杂度。

    基于层次化多头交互注意力的对话状态生成方法

    公开(公告)号:CN112131861A

    公开(公告)日:2020-12-25

    申请号:CN202011341577.0

    申请日:2020-11-25

    Abstract: 本发明属于任务型对话技术领域,具体涉及了一种基于层次化多头交互注意力的对话状态生成方法,旨在解决现有技术精度和准确度低以及成本高、效率低的问题。本发明包括:基于文本词典进行对话文本预处理;通过编码器进行各句子的独立编码,获得对话文本的上下文表示;对解码器输入应用自我注意力机制,获得当前时刻的解码器输入向量;应用多头交互式注意力机制,融合字级别和句子级别的上下文表示,获得对话文本当前时刻的上下文向量表示;结合当前时刻的解码器输入向量,通过非线性映射获得实体和状态作为对话文本的对话状态。本发明可以在无字级别标注信息的情况下取得非常好的效果,不仅节约了数据标注的成本,也提高了模型的精确性与精度。

    神经网络机器翻译方法、模型及模型形成方法

    公开(公告)号:CN111401081A

    公开(公告)日:2020-07-10

    申请号:CN201811534845.3

    申请日:2018-12-14

    Abstract: 本发明涉及神经网络机器翻译方法、模型及模型形成方法。形成神经网络机器翻译模型的方法包括:形成编码器,其包括第一多头注意力模型;形成解码器,其包括第二多头注意力模型和未来信息模型,未来信息模型表示当前预测单词和已经生成单词的第一注意力隐层表示和当前预测单词和未来可能的单词的第二注意力隐层表示的融合;通过编码器和解码器形成第一机器翻译模型;以及对第一机器翻译模型进行对源语言序列从左至右和从右至左的解码训练,以形成神经网络机器翻译模型,其中,第一多头注意力模型和未来信息模型为第二多头注意力模型提供输入。本发明解决了在机器翻译的过程中,在预测当前单词时,未来信息不能被充分利用的问题。

    基于注意力机制的知识图谱长尾关系补全方法

    公开(公告)号:CN111291139A

    公开(公告)日:2020-06-16

    申请号:CN202010189960.2

    申请日:2020-03-17

    Inventor: 周玉 孙建 宗成庆

    Abstract: 本发明属于知识图谱领域,具体涉及一种基于注意力机制的知识图谱长尾关系补全方法、系统、装置,旨在解决传统的关系补全模型因长尾关系数目稀少导致对长尾关系预测产生过拟合的问题。本系统方法:获取待补全的知识图谱,并根据其实体之间的关系类型将其构建为第一知识图谱和第二知识图谱;获取第一知识图谱中融合邻域信息的实体向量表示,作为第一表示;根据第一表示对第二知识图谱中各实体进行向量化表示,并构建支撑集和查询集;通过预设的多种网络类型的长尾关系预测方法获取查询集中各实体对的关系类型标签,并补全各实体之间的关系。本发明通过对知识图谱中各实体的邻域信息进行融合,避免了长尾关系预测时过拟合的问题。

Patent Agency Ranking