-
公开(公告)号:CN115966197A
公开(公告)日:2023-04-14
申请号:CN202211732372.4
申请日:2022-12-30
Applicant: 科大讯飞股份有限公司
Abstract: 本发明提供一种语音合成方法、装置、电子设备和存储介质,涉及语音合成技术领域,该方法包括:获取目标文本;调用多层级韵律预测模型对目标文本进行韵律预测,得到目标文本在至少两个层级的韵律特征;根据目标文本和至少两个层级的韵律特征生成目标文本对应的语音;其中,不同层级表征韵律特征的不同时间尺度;多层级韵律预测模型是基于第一文本样本和多层级的韵律特征样本训练得到的。本发明提供的技术方案能够提高语音合成的韵律表现力。
-
公开(公告)号:CN112767914B
公开(公告)日:2024-04-30
申请号:CN202011627562.0
申请日:2020-12-31
Applicant: 科大讯飞股份有限公司
Abstract: 本申请公开了一种歌唱语音合成方法及合成设备、计算机存储介质,该合成方法包括:获取乐谱信息;对乐谱信息进行特征提取,以获得乐谱特征;对乐谱特征进行基频特征预测,以获得基频特征;结合基频特征对乐谱特征进行声学特征预测,以获得声学特征;根据声学特征得到合成后的歌唱语音数据。本申请所提供的合成方法能够提高歌唱语音合成的准确性以及自然度。
-
公开(公告)号:CN112767914A
公开(公告)日:2021-05-07
申请号:CN202011627562.0
申请日:2020-12-31
Applicant: 科大讯飞股份有限公司
Abstract: 本申请公开了一种歌唱语音合成方法及合成设备、计算机存储介质,该合成方法包括:获取乐谱信息;对乐谱信息进行特征提取,以获得乐谱特征;对乐谱特征进行基频特征预测,以获得基频特征;结合基频特征对乐谱特征进行声学特征预测,以获得声学特征;根据声学特征得到合成后的歌唱语音数据。本申请所提供的合成方法能够提高歌唱语音合成的准确性以及自然度。
-
公开(公告)号:CN118170904A
公开(公告)日:2024-06-11
申请号:CN202311868908.X
申请日:2023-12-28
Applicant: 科大讯飞股份有限公司
Abstract: 本申请公开了一种角色消歧方法、系统和相关装置,该方法包括:获取待处理图;其中,所述待处理图的节点是基于多个待处理角色名得到的,所述待处理图的边是基于任意两个所述待处理角色名对应的待处理段落得到的,所述待处理段落中的两个所述待处理角色名间隔的字符的数量小于第一阈值;将所述待处理图输入图神经网络,得到每条边所连接的两个节点对应的待处理角色名之间的分类结果;其中,所述图神经网络用于对所述待处理图中的边所连接的节点之间的关联关系进行分类,所述分类结果包括同属于一个角色和分属于两个角色中的一者。通过上述方式,本申请能够提高角色消歧的准确性。
-
公开(公告)号:CN117668174A
公开(公告)日:2024-03-08
申请号:CN202311385176.9
申请日:2023-10-23
Applicant: 科大讯飞股份有限公司
IPC: G06F16/332 , G06F16/35 , G06N3/045 , G06N3/0499 , G06N3/096 , G06N3/09 , G16H50/20
Abstract: 本申请公开了一种医疗问答语言模型的构建方法,包括:确定用于预设医疗问答语言模型的Transformer模块结构,其中所述Transformer模块结构包括前馈层模块,所述前馈层模块包括N个前馈层;将所述Transformer模块结构用于构建所述预设医疗问答语言模型;其中,所述前馈层模块中,通过参数化路由器子模块,从所述N个前馈层中选择k个前馈层,以将所述前馈层模块的输入分别输入到所述k个前馈层进行计算,输出加权求和的所述k个前馈层的输出,其中k
-
公开(公告)号:CN116013245A
公开(公告)日:2023-04-25
申请号:CN202211690583.6
申请日:2022-12-27
Applicant: 科大讯飞股份有限公司
Abstract: 本发明提供一种语音合成模型的训练、语音合成方法、装置、设备及介质,其中方法包括:获取样本文本,以及所述样本文本对应的样本语音的音素标签;基于初始合成模型,对所述样本文本进行语音合成,得到所述样本文本的预测声学特征;对所述预测声学特征进行音素分类,得到所述预测声学特征的音素分类结果;基于所述音素分类结果和所述音素标签,对所述初始合成模型进行参数迭代,得到所述语音合成模型。本发明提供的方法、装置、电子设备及存储介质,提高了语音合成模型的准确性和可靠性,同时,音素分类结果是对预测声学特征进行音素分类得到的,也进一步提高了语音合成模型的音素分类效果。
-
-
-
-
-