-
公开(公告)号:CN119964551A
公开(公告)日:2025-05-09
申请号:CN202510430211.7
申请日:2025-04-08
Applicant: 厦门大学
IPC: G10L13/08 , G10L13/10 , G10L13/027 , G10L25/30
Abstract: 一种基于互信息理论的自监督语音特征增强语音合成方法,涉及语音合成技术领域。该方法通过引入自监督语音特征,作为文本的声学补充,设计基于互信息最大化和最小化的信息瓶颈模块,从自监督语音特征中提取紧凑且与任务相关的自监督表示,并通过最大化文本表示与自监督表示之间的互信息,增强文本表示的声学信息,从而提高语音合成的自然度和质量。在单说话人和多说话人语音合成场景下均表现出色,且具有良好的跨语言适应性,能够有效提升不同语言环境下的语音合成质量。
-
公开(公告)号:CN116092191A
公开(公告)日:2023-05-09
申请号:CN202310062798.1
申请日:2023-01-16
Applicant: 厦门大学
IPC: G06V40/20 , G06V20/40 , G06V10/82 , G06V10/778 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 一种用于手语翻译的新型词级对比学习框架及手语翻译系统,涉及计算机视觉和手语语言学。新型词级对比学习框架ConSLT包括视频输入模块、视觉提取模块、手语编码模块、句子嵌入模块、手语解码模块、对比学习模块、损失计算模块、输出模块;方法:1)手语语料选取建模;2)手语视觉特征提取;3)端到端手语视频转换;4)训练阶段句子嵌入;5)构建正例对及负例对;6)手语翻译模型损失计算;7)手语翻译结果输出。从自然语言处理的角度探索手语翻译的对比学习,直接利用数据本身作为监督信息,在低资源情况下也可以学习到很好的手语表示,使手语翻译系统更精准,更流畅。ConSLT框架不受模型限制,适用于不同的模型。
-
公开(公告)号:CN102662931A
公开(公告)日:2012-09-12
申请号:CN201210111557.3
申请日:2012-04-13
Applicant: 厦门大学
Abstract: 一种基于协同神经网络的语义角色标注方法,涉及语义角色标注、模式识别和协同神经网络领域,涉及将协同神经网络原理引入到浅层语义分析的方法。从训练语料和测试语料中抽取特征,并构造相应的语义特征向量;对语义特征向量进行核变换,并在此基础上构造原型模式和待测试模式;构造序参量,对每个依存成分求若干个侯选角色;构建谓词库,对每个谓词对应的所有依存成分的候选角色进行组合,得到各个谓词的角色链;优化网络参数,进行协同神经网络的动力学演化,从而得到最优角色链,并输出标注模式。首次将协同神经网络原理引入到语义角色标注中,该方法广泛适应于各种自然语言处理任务中。具有较好的应用前景和应用价值。
-
公开(公告)号:CN119539067B
公开(公告)日:2025-04-11
申请号:CN202510102277.3
申请日:2025-01-22
Applicant: 厦门大学
IPC: G06N5/025 , G06N3/0455 , G06N3/0895 , G06F18/22
Abstract: 一种基于超网络的持续学习关系抽取方法,涉及自然语言处理和机器学习领域。模型含样本编码器、基于超网络的网络生成器和任务特定的投影头;样本编码器用于获取每个实例的嵌入表示;网络生成器为当前任务生成特定的投影头,投影头用于执行该特定任务的分类。为减少模型表示空间中类似关系之间的冲突,创建特定的投影头。对于新任务,初始化一系列特定任务的嵌入。这些嵌入输入网络生成器,创建一个用于当前任务关系分类的专用投影头。每个任务都有其特定的表示空间。有效减轻模型表示空间中类似关系的冲突。训练模型过程中采用新任务训练、样本选择和多任务重放,通过跨任务损失和对比学习等策略,有效缓解灾难性遗忘问题。
-
公开(公告)号:CN114925694B
公开(公告)日:2024-06-04
申请号:CN202210513350.2
申请日:2022-05-11
Applicant: 厦门大学
IPC: G06F40/295 , G06F18/214 , G06F18/241 , G06F18/2415 , G06N3/048
Abstract: 一种利用实体判别信息来提高生物医学命名体识别的方法,涉及生物医学命名体识别。包括以下步骤:1)构建EJNER模型,将EJ任务和NER任务结合的方法,称之为EJNER;EJNER模型包括EJ模型、NER模型和特征融合模块;2)定义EJ任务并训练EJ模型;3)将EJ模型提取的特征和NER模型提取的特征通过相加、门控单元、多头注意力机制方法融合,利用融合后的特征进行预测。可缓解实体边界错误分类问题。不仅仅适用于BioNER任务,同样适用于一般的命名体识别任务。
-
公开(公告)号:CN116542261A
公开(公告)日:2023-08-04
申请号:CN202310386796.8
申请日:2023-04-12
Applicant: 厦门大学
IPC: G06F40/58 , G06F40/30 , G06F16/36 , G06N3/08 , G06F40/295
Abstract: 一种知识图谱增强的神经机器翻译模型构建方法,涉及自然语言处理、机器翻译、知识图谱等领域。从句子和知识图谱中实体的语义关系挖掘语义相近的实体对来替换原短语对生成伪句子对,并对生成伪句子对和原句子对的语义关系进一步挖掘来过滤语义不相似的伪句子对,而后利用原平行语料和伪平行语料联合训练神经机器翻译模型来提升未知实体的翻译质量。较于之前改善未知实体翻译的工作,从构造语义一致的未知实体的伪句子对的方向切入,一方面可以充分利用知识图谱中所有三元组的信息,另一方面显式构造伪数据易于模型学习如何对未知实体的句子翻译,从而增强神经翻译模型对未知实体的翻译质量。
-
公开(公告)号:CN104834633A
公开(公告)日:2015-08-12
申请号:CN201510288779.6
申请日:2015-05-29
Applicant: 厦门大学
IPC: G06F17/28
Abstract: 一种云翻译输入法及系统,涉及云计算、机器翻译、计算机辅助翻译、概率词典和输入法等领域。所述云翻译输入法通过获取原文信息,根据概率词典,利用支持交互式翻译的机器翻译引擎提供的带概率的翻译结果,扩充、重排候选词,提高了翻译用户输入译文的效率,且支持任何语言的输入。所述云翻译输入系统采用基于云服务的架构实现,设有客户端和服务器端;客户端设有控制模块和用户界面模块,用户界面模块的输入端与用户连接,用户界面模块与控制模块连接;服务器端设有通信接口模块、解码模块、术语识别模块和机器翻译模块;所述通信接口模块与客户端的控制模块连接,解码模块分别与通信接口模块、术语识别模块和机器翻译模块连接。
-
公开(公告)号:CN119962548A
公开(公告)日:2025-05-09
申请号:CN202510093157.1
申请日:2025-01-21
Applicant: 厦门大学
IPC: G06F40/58 , G06N5/04 , G06N3/0464
Abstract: 结合预训练语言模型的跨模态非自回归解码方法及系统,涉及跨模态翻译。解码系统依次包括目标排列采样、预训练文本编码、预训练文本解码、预训练损失计算、源端特征提取、下游编码、CTC增强、下游解码、下游任务损失计算、输出等模块。解码方法:采样预训练训练样本以及目标排列;将源端文本编码为隐向量;目标端文本解码;预训练阶段损失计算;初始化下游跨模态非自回归翻译模型的参数;源端特征提取;源端特征编码;下游解码模块输入生成;解码模块生成翻译结果;计算下游跨模态非自回归翻译模型损失;下游跨模态非自回归翻译结果输出。利用Random Drop以及CTC,缓解预训练和微调阶段解码器输入的模态差异。
-
公开(公告)号:CN114492796B
公开(公告)日:2025-03-25
申请号:CN202210122504.5
申请日:2022-02-09
Applicant: 厦门大学
IPC: G06F40/253 , G06F40/16 , G06V20/40 , G09B21/00 , G06N3/0455 , G06N3/08
Abstract: 一种基于语法树的多任务学习手语翻译方法,涉及手语翻译。包括以下步骤:1)获得口语句子的语法树,并构造数据集;2)搭建神经网络,主要分为编码器和解码器两部分;在编码器得到输入的抽象特征表示后,将其输入到解码器中进行解码;3)预测语法树的先序遍历序列、语法树每个节点的深度以及口语句子。通过多任务学习方式来提升模型的翻译性能。不仅适用于手语翻译的翻译过程,同样可以用于神经机器翻译任务。在翻译的鲁棒性上要好于基础Transformer模型。在模型解码过程中,不仅仅预测口语句子,还要预测其对应的语法树,通过硬参数共享,以便更充分的挖掘训练数据集中隐藏的深层信息,从而使得翻译模型的预测结果更加准确。
-
公开(公告)号:CN119539067A
公开(公告)日:2025-02-28
申请号:CN202510102277.3
申请日:2025-01-22
Applicant: 厦门大学
IPC: G06N5/025 , G06N3/0455 , G06N3/0895 , G06F18/22
Abstract: 一种基于超网络的持续学习关系抽取方法,涉及自然语言处理和机器学习领域。模型含样本编码器、基于超网络的网络生成器和任务特定的投影头;样本编码器用于获取每个实例的嵌入表示;网络生成器为当前任务生成特定的投影头,投影头用于执行该特定任务的分类。为减少模型表示空间中类似关系之间的冲突,创建特定的投影头。对于新任务,初始化一系列特定任务的嵌入。这些嵌入输入网络生成器,创建一个用于当前任务关系分类的专用投影头。每个任务都有其特定的表示空间。有效减轻模型表示空间中类似关系的冲突。训练模型过程中采用新任务训练、样本选择和多任务重放,通过跨任务损失和对比学习等策略,有效缓解灾难性遗忘问题。
-
-
-
-
-
-
-
-
-