一种基于全向注意力机制的翻译方法

    公开(公告)号:CN119129611A

    公开(公告)日:2024-12-13

    申请号:CN202411264320.8

    申请日:2024-09-10

    Abstract: 本发明公开了一种基于全向注意力机制的翻译方法,涉及自然语言处理的技术领域,包括,收集和处理平行语料数据,通过知识蒸馏生成蒸馏数据集,利用蒸馏数据集训练自回归翻译模型并解决多模式问题,将自回归模型转换为非自回归模型并进行训练直至收敛,本发明通过引入全向注意力机制和课程学习策略,有效的解决了非自回归翻译模型中出现的多模式问题,显著提升了翻译质量和训练效率,从而实现了更准确的翻译输出效果。

Patent Agency Ranking