多语言机器翻译模型训练方法、多语言翻译方法及装置

    公开(公告)号:CN114048760B

    公开(公告)日:2025-03-25

    申请号:CN202111138690.3

    申请日:2021-09-27

    Abstract: 本发明提供一种多语言机器翻译模型训练方法、多语言翻译方法及装置。训练方法包括:获取多语言翻译训练语料和多语言翻译验证语料;建立并初始化全参数共享的多语言翻译模型,利用多语言翻译训练语料和多语言翻译验证语料对多语言翻译模型进行训练,得到多语言机器翻译模型。在训练过程中模型自动判断每个共享的参数是否需要转变为语言相关的参数,复制需要转变的参数并将其分配给相关的语言,从而使得模型同时具有共享参数和语言相关参数。本发明用于在多语言机器翻译模型训练的过程中,自动判断参数是否需要共享以及需要被哪些语言对共享,而不依赖预先指定的共享或语言相关的模型组件。

    大语言模型合并方法、装置、电子设备及存储介质

    公开(公告)号:CN119476418A

    公开(公告)日:2025-02-18

    申请号:CN202411518905.8

    申请日:2024-10-29

    Abstract: 本发明提供一种大语言模型合并方法、装置、电子设备及存储介质,包括:基于合并模型在下游任务的任务目标,确定模型合并所使用的密度超参数和模型合并系数超参数;基于密度超参数生成掩码矩阵,基于掩码矩阵、两个待合并模型各自的模型参数以及基础模型的模型参数,分别确定两个待合并模型的任务向量;基于两个待合并模型之间对应神经元的参数向量角、两个待合并模型的任务向量以及模型合并系数超参数,确定合并模型的任务向量;基于合并模型的任务向量和基础模型的模型参数,得到合并模型。采用上述技术方案,解决了现有的模型合并方法得到的合并模型的性能不佳的问题。

    文本图像翻译模型训练方法、装置、电子设备和存储介质

    公开(公告)号:CN118552965A

    公开(公告)日:2024-08-27

    申请号:CN202410624083.5

    申请日:2024-05-20

    Abstract: 本发明提供一种文本图像翻译模型训练方法、装置、电子设备和存储介质,其中方法包括:获取预训练模型和训练数据,分别对训练数据中的文本图像和源端语言文本字符串进行特征编码,得到文本图像特征和文本特征;分别对文本图像特征和文本特征进行特征解码,得到文本图像翻译结果和文本翻译结果;基于文本图像翻译结果和训练数据中的目标端语言文本字符串,确定文本图像翻译损失;基于文本图像特征、文本特征、文本图像翻译结果和文本翻译结果,确定多层次知识迁移损失;将文本图像翻译损失和多层次知识迁移损失进行融合,得到训练损失,并基于训练损失对预训练模型进行参数更新,得到文本图像翻译模型。本发明能够提升文本图像翻译模型的性能。

    基于视觉语言预训练的图像文本翻译方法及装置

    公开(公告)号:CN117034965B

    公开(公告)日:2024-03-22

    申请号:CN202310996132.3

    申请日:2023-08-08

    Abstract: 本发明提供一种基于视觉语言预训练的图像文本翻译方法及装置,方法包括:确定源语言图像;将源语言图像输入至图像文本翻译模型,得到图像文本翻译模型输出的源语言图像对应的目标语言文本;其中,图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与样本目标语言标签之间的差异确定。本发明的图像文本翻译模型基于样本图像特征向量以及样本预测源语言文本对样本源语言图像进行图像文本翻译时,样本图像特征向量能够补充提供相应的视觉信息,对文本识别错误进行校正,以增强图像文本翻译,准确得到样本预测目标语言文本,进而提高图像文本翻译模型的图像文本翻译精度。

    零资源跨语言对话模型训练方法、装置、设备和介质

    公开(公告)号:CN116805004A

    公开(公告)日:2023-09-26

    申请号:CN202311058414.5

    申请日:2023-08-22

    Abstract: 本发明涉及自然语言处理技术领域,提供一种零资源跨语言对话模型训练方法、装置、设备和介质,所述方法包括:基于初始样本源语言对话数据,构建扩充样本源语言对话数据、第一跨语言对话数据、第二跨语言对话数据、双语平行数据以及样本目标语言对话数据;基于扩充样本源语言对话数据、第一跨语言对话数据以及第二跨语言对话数据中的至少一种,和双语平行数据,训练得到教师模型;将样本目标语言对话数据的对话输入数据输入至教师模型,得到蒸馏对话回复数据;基于样本目标语言对话数据的对话输入数据以及蒸馏对话回复数据进行蒸馏训练,得到零资源跨语言对话模型。本发明快速且低成本为零资源目标语言构建零资源跨语言对话模型。

    翻译模型的训练方法及装置、翻译方法及装置

    公开(公告)号:CN115358245A

    公开(公告)日:2022-11-18

    申请号:CN202210800420.2

    申请日:2022-07-06

    Abstract: 本发明提供一种翻译模型的训练方法及装置、翻译方法及装置,其中翻译模型的训练方法包括:获取M个翻译任务的训练数据和预设翻译模型;对于M个翻译任务中任意两个翻译任务的训练数据和预设翻译模型,确定任意两个翻译任务之间的目标亲和性;基于各目标亲和性,将各翻译任务进行聚类处理,得到多个目标任务簇;基于各目标任务簇中各翻译任务的训练数据,对各目标任务簇对应的目标翻译模型进行训练。通过确定任意两个翻译任务之间的目标亲和性,可以将对预设翻译模型的翻译结果具有促进作用的各翻译任务进行聚类,得到目标任务簇;基于各目标任务簇,对各目标任务簇对应的目标翻译模型进行训练,能够提高目标翻译模型进行多语言翻译的准确性。

    多模态机器翻译方法、装置、电子设备和存储介质

    公开(公告)号:CN112800785B

    公开(公告)日:2021-07-27

    申请号:CN202110392717.5

    申请日:2021-04-13

    Abstract: 本发明提供一种多模态机器翻译方法、装置、电子设备和存储介质,所述方法包括:确定待翻译的源语言文本;将源语言文本输入至翻译模型中,得到翻译模型输出的目标语言文本;翻译模型是基于样本源语言文本和样本目标语言文本,以及与样本源语言文本匹配的样本图像,联合重建模型训练得到的;翻译模型与重建模型共用特征编码层,模型训练过程中特征编码层用于编码第一序列和第二序列,翻译模型基于第一序列的编码进行翻译,重建模型基于第二序列的编码进行重建,第一序列基于样本源语言文本确定,第二序列基于样本源语言文本中的各实体在样本图像中的区域图像和样本源语言文本的非实体确定,提高了质量提升的可解释性并且降低了翻译的复杂度。

    基于层次化多头交互注意力的对话状态生成方法

    公开(公告)号:CN112131861B

    公开(公告)日:2021-03-16

    申请号:CN202011341577.0

    申请日:2020-11-25

    Abstract: 本发明属于任务型对话技术领域,具体涉及了一种基于层次化多头交互注意力的对话状态生成方法,旨在解决现有技术精度和准确度低以及成本高、效率低的问题。本发明包括:基于文本词典进行对话文本预处理;通过编码器进行各句子的独立编码,获得对话文本的上下文表示;对解码器输入应用自我注意力机制,获得当前时刻的解码器输入向量;应用多头交互式注意力机制,融合字级别和句子级别的上下文表示,获得对话文本当前时刻的上下文向量表示;结合当前时刻的解码器输入向量,通过非线性映射获得实体和状态作为对话文本的对话状态。本发明可以在无字级别标注信息的情况下取得非常好的效果,不仅节约了数据标注的成本,也提高了模型的精确性与精度。

    神经机器翻译模型训练方法、神经机器翻译方法及装置

    公开(公告)号:CN111539229A

    公开(公告)日:2020-08-14

    申请号:CN201910054869.7

    申请日:2019-01-21

    Abstract: 本发明涉及神经机器翻译模型训练方法、神经机器翻译方法及装置。该神经机器翻译方法包括:识别待翻译的源语句中的命名实体;用与命名实体的类别对应的标签替换所识别的命名实体,获得中间源语句;通过神经机器翻译模型翻译中间源语句,获得带有标签的中间目标语句;从预置的命名实体词典和/或命名实体库查找命名实体的译文;以及用查找到的译文替换中间目标语句中相应的标签,获得与待翻译的源语句对应的目标语句。本发明解决了在机器翻译的过程中,低频的命名实体被错翻译或漏翻译的问题。

    多语言自动文摘方法
    10.
    发明授权

    公开(公告)号:CN106874362B

    公开(公告)日:2020-01-10

    申请号:CN201611253245.0

    申请日:2016-12-30

    Abstract: 本发明涉及一种多语言自动文摘方法,包括以下步骤:步骤101,获取多个目标语言文档中的多个谓词论元结构;步骤102,对所述多个谓词论元结构中的每一个谓词论元进行重要性打分;步骤103,根据所述每一个谓词论元的重要性得分,生成目标语言摘要。本发明中,实现了获取指定语言的摘要,且在保证该摘要含有更多的重要信息的信息量时,提高可读性。

Patent Agency Ranking