-
公开(公告)号:CN110263350A
公开(公告)日:2019-09-20
申请号:CN201910176207.7
申请日:2019-03-08
Applicant: 腾讯科技(深圳)有限公司 , 中国科学院计算技术研究所
Abstract: 本申请涉及一种模型训练方法、装置、计算机可读存储介质和计算机设备,所述方法包括:获取训练文本对;所述训练文本对包括相对应的源文本和期望文本;将所述源文本输入翻译模型,生成与所述源文本相对应的翻译文本;获取所述翻译模型的隐层所输出的隐层向量作为质量评估模型的训练样本;所述隐层向量融合了所述源文本和所述翻译文本;根据所述翻译文本与所述期望文本,确定所述训练样本相应的训练标签;通过所述训练样本和相应的训练标签训练所述质量评估模型。本申请提供的方案可以降低模型训练成本。
-
公开(公告)号:CN110442878B
公开(公告)日:2023-07-21
申请号:CN201910533381.2
申请日:2019-06-19
Applicant: 腾讯科技(深圳)有限公司 , 中国科学院计算技术研究所
Abstract: 本申请公开了一种翻译方法、机器翻译模型的训练方法、装置及存储介质,涉及人工智能领域,该方法包括:获取标注有参考翻译结果的样本语句;将样本语句输入待训练的机器翻译模型,得到样本语句的样本翻译结果,机器翻译模型为模型参数待调整的非自回归的模型;根据参考翻译结果计算词语翻译结果的梯度估计值,其中,梯度估计值是通过奖赏值计算得到的;根据梯度估计结果对机器翻译模型的模型参数进行调整。通过奖赏值计算梯度估计值,并根据梯度估计值对机器翻译模型的模型参数进行调整,以奖赏值为调整参考数据得到梯度估计值对模型参数进行调整,从而实现对机器翻译模型的序列级训练,提高训练后的机器翻译模型的翻译准确度。
-
公开(公告)号:CN111581958A
公开(公告)日:2020-08-25
申请号:CN202010462203.8
申请日:2020-05-27
Applicant: 腾讯科技(深圳)有限公司 , 中国科学院计算技术研究所
IPC: G06F40/279 , G06F40/216 , G06F40/58 , G06F16/332 , G06K9/62
Abstract: 本申请实施例公开了一种对话状态确定方法、装置、计算机设备及存储介质,属于计算机技术领域。该方法包括:获取多个对话轮次的对话语句,获取每个对话轮次的词向量集合,根据每个预设维度标识的维度向量,得到每个预设维度标识对应的第一融合特征向量,确定目标对话轮次对应的至少一个目标维度标识,及每个目标维度标识对应的目标关键词,将至少一个目标维度标识,及每个目标维度标识对应的目标关键词,确定为目标对话轮次的对话状态。通过将目标对话轮次及历史对话轮次的对话语句进行融合,丰富了对话语句的信息量,且按照每个预设维度标识,将多个对话轮次的词向量集合进行加权融合处理,从而提高了获取到的对话状态的准确性。
-
公开(公告)号:CN110457713A
公开(公告)日:2019-11-15
申请号:CN201910533371.9
申请日:2019-06-19
Applicant: 腾讯科技(深圳)有限公司 , 中国科学院计算技术研究所
IPC: G06F17/28
Abstract: 本申请提供了一种基于机器翻译模型的翻译方法、装置、设备和存储介质。所述方法包括:将源端句子的第i个源端词嵌入编码为中间向量;结合第i个源端词嵌入,对中间向量进行解码,得到解码后的中间向量;将解码后的中间向量与目标端句子的第i-1个目标端词嵌入融合,得到融合后的中间向量;对融合后的中间向量进行解码,得到解码后的词向量;根据解码后的词向量对第i个目标端词语进行概率预测,输出预测结果;该方法通过在解码过程中增加前一个目标端词嵌入作为输入数据,捕捉单词之间的依赖关系,从而提高目标端句子生成的准确性,减少过翻译、漏翻译等等错误的出现,使生成的目标端句子更通顺。
-
公开(公告)号:CN103473223B
公开(公告)日:2017-05-03
申请号:CN201310450616.4
申请日:2013-09-25
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种基于句法树的规则抽取方法,包括:1)对于源语言成分句法树,源语言依存句法树,目标语言串以及源语言与目标语言间的词语对齐关系的四元组,在源语言依存句法树中找出并标记与源语言成分句法树中的成分短语节点相对应的依存句法树片段;2)遍历步骤1)标记好的源语言依存句法树,抽取中心‑修饰片段,在遍历过程中,对于与成分短语节点相对应的依存句法树片段,将该依存句法树片段视为一个节点来抽取中心‑修饰片段,得到含成分短语节点的中心‑修饰片段;3)依据所抽取的含成分短语节点的中心‑修饰片段,生成含成分短语的中心‑修饰规则。本发明具有较强的长距离翻译调序能力和较好的短语兼容性。
-
公开(公告)号:CN103473223A
公开(公告)日:2013-12-25
申请号:CN201310450616.4
申请日:2013-09-25
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种基于句法树的规则抽取方法,包括:1)对于源语言成分句法树,源语言依存句法树,目标语言串以及源语言与目标语言间的词语对齐关系的四元组,在源语言依存句法树中找出并标记与源语言成分句法树中的成分短语节点相对应的依存句法树片段;2)遍历步骤1)标记好的源语言依存句法树,抽取中心-修饰片段,在遍历过程中,对于与成分短语节点相对应的依存句法树片段,将该依存句法树片段视为一个节点来抽取中心-修饰片段,得到含成分短语节点的中心-修饰片段;3)依据所抽取的含成分短语节点的中心-修饰片段,生成含成分短语的中心-修饰规则。本发明具有较强的长距离翻译调序能力和较好的短语兼容性。
-
公开(公告)号:CN110263349B
公开(公告)日:2024-09-13
申请号:CN201910176030.0
申请日:2019-03-08
Applicant: 腾讯科技(深圳)有限公司 , 中国科学院计算技术研究所
IPC: G06F40/58 , G06F16/36 , G06N3/0464 , G06N3/0455 , G06N3/044
Abstract: 本申请涉及一种语料评估模型训练方法、装置、计算机可读存储介质和计算机设备,所述方法包括:获取平行语料;所述平行语料包括源文本和相应的参考翻译文本;通过机器翻译模型对所述源文本进行翻译得到相应的机器翻译文本;将所述源文本和所述机器翻译文本共同作为语料评估模型的训练样本;对比所述机器翻译文本和所述参考翻译文本,得到与所述训练样本相应的训练标签;通过所述训练样本和相应的训练标签训练所述语料评估模型。本申请提供的方案可以提高模型训练效率和效果。
-
公开(公告)号:CN110263348B
公开(公告)日:2024-09-13
申请号:CN201910168264.0
申请日:2019-03-06
Applicant: 腾讯科技(深圳)有限公司 , 中国科学院计算技术研究所
Abstract: 本发明涉及一种翻译方法、装置、计算机设备和存储介质,所述方法包括:获取目标源语句以及对所述目标源语句进行翻译得到的初始翻译语句;利用已训练的机器学习模型对所述目标源语句以及所述初始翻译语句进行编码,得到所述目标源语句对应的第一编码向量序列以及所述初始翻译语句对应的第二编码向量序列;利用所述机器学习模型对所述第一编码向量序列以及所述第二编码向量序列进行联合解码,得到语句调整操作序列;根据所述语句调整操作序列对所述初始翻译语句进行语句调整,得到所述目标源语句对应的目标翻译语句。上述方法可以提高翻译准确度。
-
公开(公告)号:CN110263350B
公开(公告)日:2024-05-31
申请号:CN201910176207.7
申请日:2019-03-08
Applicant: 腾讯科技(深圳)有限公司 , 中国科学院计算技术研究所
IPC: G06F40/58 , G06N3/0455 , G06N3/044 , G06N3/0464 , G06N3/0895
Abstract: 本申请涉及一种模型训练方法、装置、计算机可读存储介质和计算机设备,所述方法包括:获取训练文本对;所述训练文本对包括相对应的源文本和期望文本;将所述源文本输入翻译模型,生成与所述源文本相对应的翻译文本;获取所述翻译模型的隐层所输出的隐层向量作为质量评估模型的训练样本;所述隐层向量融合了所述源文本和所述翻译文本;根据所述翻译文本与所述期望文本,确定所述训练样本相应的训练标签;通过所述训练样本和相应的训练标签训练所述质量评估模型。本申请提供的方案可以降低模型训练成本。
-
公开(公告)号:CN110457713B
公开(公告)日:2023-07-28
申请号:CN201910533371.9
申请日:2019-06-19
Applicant: 腾讯科技(深圳)有限公司 , 中国科学院计算技术研究所
IPC: G06F40/58 , G06N3/0455 , G06N3/048 , G06N3/047 , G06N3/08
Abstract: 本申请提供了一种基于机器翻译模型的翻译方法、装置、设备和存储介质。所述方法包括:将源端句子的第i个源端词嵌入编码为中间向量;结合第i个源端词嵌入,对中间向量进行解码,得到解码后的中间向量;将解码后的中间向量与目标端句子的第i‑1个目标端词嵌入融合,得到融合后的中间向量;对融合后的中间向量进行解码,得到解码后的词向量;根据解码后的词向量对第i个目标端词语进行概率预测,输出预测结果;该方法通过在解码过程中增加前一个目标端词嵌入作为输入数据,捕捉单词之间的依赖关系,从而提高目标端句子生成的准确性,减少过翻译、漏翻译等等错误的出现,使生成的目标端句子更通顺。
-
-
-
-
-
-
-
-
-