-
公开(公告)号:CN110600046A
公开(公告)日:2019-12-20
申请号:CN201910874820.6
申请日:2019-09-17
Applicant: 南京邮电大学
IPC: G10L21/007 , G10L25/30 , G10L13/033
Abstract: 本发明公开了一种基于改进的STARGAN与x向量的多对多说话人转换方法,包括训练阶段和转换阶段,使用了改进的STARGAN与x向量相结合来实现语音转换系统,该方法是对STARGAN在语音转换应用中的进一步改进,其中,提出的两步式对抗性损失能够有效解决由于循环一致性损失利用L1造成的过平滑问题,而且生成器采用2-1-2D CNN网络,能够较好地提升模型对于语义的学习能力以及语音频谱的合成能力,克服STARGAN中转换后语音相似度与自然度较差的问题。同时x向量对于短时话语具有更好的表征性能,能够充分表征说话人的个性特征,实现了一种非平行文本条件下的高质量多对多语音转换方法。
-
公开(公告)号:CN110085254A
公开(公告)日:2019-08-02
申请号:CN201910323677.1
申请日:2019-04-22
Applicant: 南京邮电大学
IPC: G10L25/18 , G10L17/04 , G10L21/003 , G10L21/007 , G10L25/30
Abstract: 本发明公开了一种基于beta-VAE和i-vector的多对多语音转换方法,通过引入可调节参数β和C对变分自动编码器(VAE)框架进行了修改,并将i-vector(身份特征向量)与改进后的VAE网络结合起来,提高隐变量解纠缠能力,改善其在瓶颈层编码能力的不足,并充分丰富了说话人的个性化特征,能够较好地提升转换后语音的个性相似度和语音质量,有效的提高现有VAE网络的语音转换性能。
-
公开(公告)号:CN110047501A
公开(公告)日:2019-07-23
申请号:CN201910268592.8
申请日:2019-04-04
Applicant: 南京邮电大学
IPC: G10L21/007 , G10L21/013
Abstract: 本发明公开了一种基于beta-VAE的多对多语音转换方法,通过引入可调节参数β和C,完成对变分自动编码器(VAE)框架的修改,在提高隐变量解纠缠能力的同时,也改善其在瓶颈层编码能力不足的问题,实现多说话人对多说话人的语音转换。本方法解决了现有VAE网络中隐变量对语音数据的表征能力不足并且很难拓展到更为复杂的语音数据的不足,较好地提升转换后的语音质量,有效的提高转换的性能。并且本方法解除对平行文本的依赖,训练过程不需要任何对齐操作,还可以将多个源-目标说话人对的转换系统整合在一个转换模型中,即实现多对多的转换。
-
公开(公告)号:CN108777140A
公开(公告)日:2018-11-09
申请号:CN201810393556.X
申请日:2018-04-27
Applicant: 南京邮电大学
Abstract: 本发明公开了一种在非平行语料训练条件下基于VAE的语音转换方法,在非平行文本条件下,通过深度神经网络提取瓶颈特征,即Bottleneck特征,然后基于变分自编码模型实现转换函数的学习与建模,在转换阶段,可以实现多说话人对多说话人的转换。本发明的优势有三个方面:1)解除对平行文本的依赖,而且训练过程不需要任何对齐操作;2)可以将多个源-目标说话人对的转换系统整合在一个转换模型中,实现多对多转换;3)非平行文本条件下的多对多转换系统将为该技术走向实际语音交互提供技术支撑。
-
公开(公告)号:CN107068165A
公开(公告)日:2017-08-18
申请号:CN201611267431.X
申请日:2016-12-31
Applicant: 南京邮电大学
Abstract: 本发明公开了一种语音转换方法,该系统首先通过对平行语料库进行自适应高斯混合模型和双线性频率弯折加幅度调节的训练,得到语音转换所需的转换函数,然后使用该转换函数进行高质量的语音转换。本发明针对语音特征参数空间分布状况与高斯混合模型的相关关系,使用自适应高斯混合模型替代传统高斯混合模型,解决了高斯混合模型在进行语音特征参数分类时不精确的问题,并将自适应高斯混合模型和双线性频率弯折加幅度调节相结合,构建了一种高质量语音转换系统,在语音转换领域具有实用价值。
-
公开(公告)号:CN107039036A
公开(公告)日:2017-08-11
申请号:CN201710088300.3
申请日:2017-02-17
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于自动编码深度置信网络的高质量说话人识别方法,包括模型训练和说话人识别:首先对说话人语音进行预处理,提取MFCC特征参数,为不同说话人特征参数进行标记。将多名说话人特征参数输入深度置信网络进行网络训练学习,得到自动编码深度置信网络。利用训练好的自动编码深度置信网络分别对每个说话人提取的特征参数进行编码重构,输出数据作为矢量量化模型的输入,进行矢量量化模型训练。说话人识别阶段,说话人的语音特征参数经自动编码深度置信网络编码重构,输入矢量量化模型进行识别。通过深度置信网络对说话人语音特征的编码重构,提取说话人个性特征的同时,可以过滤语音中的噪声,提高了说话人识别准确性和系统鲁棒性。
-
公开(公告)号:CN103021418A
公开(公告)日:2013-04-03
申请号:CN201210538744.X
申请日:2012-12-13
Applicant: 南京邮电大学
Abstract: 本发明公开了一种面向多时间尺度韵律特征的语音转换方法,属于语音信号处理技术领域。该方法首先对语音信号进行多时间尺度下的韵律特征分析与参数化提取,其次基于双隐马尔科夫模型对提取的多时间尺度韵律特征建立转换模型;最后在转换阶段,形成目标说话人的估计特征,得到转换后的语音。本发明不仅能够实现对韵律特性从整体到局部细致完整的刻画,克服韵律信息表述的模糊性和复杂性,而且通过时序性统计模型的建立,实现多时间尺度的韵律特征转换,增强转换语音的说话人个性信息,同时提高转换语音的可懂度和自然度。
-
公开(公告)号:CN111833855B
公开(公告)日:2024-02-23
申请号:CN202010179723.8
申请日:2020-03-16
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于DenseNet STARGAN的多对多说话人转换方法,采用STARGAN与DenseNet相结合来实现语音转换系统,并将GELU激活函数引入STARGAN中。一方面利用DenseNet来解决训练过程中网络退化问题,有助于训练过程中梯度的反向传播,提升深层网络训练效率,另一方面,使用GELU激活函数替换掉常规使用的ReLU激活函数,具有更强的非线性表示能力,有效解决了ReLU在负区间处于失活状态的缺点,进一步缓解了训练过程中网络退化的问题,增强了STARGAN模型的表征能力,很好地改善了转换后语音的个性相似度和语音质量,实现了一种高质量的多说话人到多说话人的语音转换方法,在跨语种语音转换、电影配音、语音翻译等领域有良好的应用前景。
-
公开(公告)号:CN113643687B
公开(公告)日:2023-07-18
申请号:CN202110772028.7
申请日:2021-07-08
Applicant: 南京邮电大学
IPC: G10L13/047 , G10L25/03 , G10L25/24 , G10L25/30 , G10L21/007 , G06N3/0464
Abstract: 本发明公开了一种融合DSNet与EDSR网络的非平行多对多语音转换方法,本方法包括训练阶段和转换阶段,训练过程不需要任何对齐过程,能够实现非平行文本条件下的多对多语音转换。训练阶段包括以下步骤:获取训练语料,训练语料由8名说话人的语料组成,说话人包含源说话人和目标说话人;提取训练语料中的声学特征向量,将特征向量输入到转换网络中进行训练,转换网络包括生成器、鉴别器和分类器,生成器融合了DSNet与EDSR网络。本方法利用EDSR网络提升模型对语音频谱信息的提取能力,再通过DSNet网络将提取的频谱信息进行特征融合,从而较好地提升了转换语音的音质和个性相似度,实现高质量的多对多语音转换。
-
公开(公告)号:CN109671442B
公开(公告)日:2023-02-28
申请号:CN201910030578.4
申请日:2019-01-14
Applicant: 南京邮电大学
IPC: G10L21/013 , G10L25/18 , G10L25/30 , G10L13/02
Abstract: 本发明公开了一种基于STARGAN与x向量的多对多说话人转换方法,包括训练阶段和转换阶段,使用了STARGAN与x向量相结合来实现语音转换系统,能够较好地提升转换后语音的个性相似度和语音质量,特别是对于短时话语x向量具有更好的表征性能,语音转换质量更好,同时可以克服C‑VAE中过平滑的问题,实现了一种高质量的语音转换方法。此外,本方法能够实现非平行文本条件下的语音转换,而且训练过程不需要任何对齐过程,提高了语音转换系统的通用性和实用性,本方法还可以将多个源‑目标说话人对的转换系统整合在一个转换模型中,即实现多说话人对多说话人转换,在跨语种语音转换、电影配音、语音翻译等领域有较好的应用前景。
-
-
-
-
-
-
-
-
-