-
公开(公告)号:CN107545903A
公开(公告)日:2018-01-05
申请号:CN201710589792.4
申请日:2017-07-19
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于深度学习的语音转换方法,属于语音信号处理技术领域。本发明使用声音编解码器AHOcoder作为特征提取端和语音合成端,使用一种深度学习的方法对语音特征进行训练分别得到源说话人和目标说话人的深层特征,同时得到由深层特征重构原始特征的解码能力,使用BP神经网络实现源说话人和目标说话人深层特征的映射,从而实现语音转换。本发明优点在于对语音的原始特征进行了拼接,认为拼接后的联合特征参数包含有说话人语音特性的动态特征,通过预训练深度自编码器加速了深度神经网络的训练,且通过深层特征的转换使得在使用少量语料进行训练的情况下得到了品质较好的转换后的语音,并且本发明支持离线学习,节约了终端设备的计算资源和内存。
-
公开(公告)号:CN107545903B
公开(公告)日:2020-11-24
申请号:CN201710589792.4
申请日:2017-07-19
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于深度学习的语音转换方法,属于语音信号处理技术领域。本发明使用声音编解码器AHOcoder作为特征提取端和语音合成端,使用一种深度学习的方法对语音特征进行训练分别得到源说话人和目标说话人的深层特征,同时得到由深层特征重构原始特征的解码能力,使用BP神经网络实现源说话人和目标说话人深层特征的映射,从而实现语音转换。本发明优点在于对语音的原始特征进行了拼接,认为拼接后的联合特征参数包含有说话人语音特性的动态特征,通过预训练深度自编码器加速了深度神经网络的训练,且通过深层特征的转换使得在使用少量语料进行训练的情况下得到了品质较好的转换后的语音,并且本发明支持离线学习,节约了终端设备的计算资源和内存。
-
公开(公告)号:CN108777140A
公开(公告)日:2018-11-09
申请号:CN201810393556.X
申请日:2018-04-27
Applicant: 南京邮电大学
Abstract: 本发明公开了一种在非平行语料训练条件下基于VAE的语音转换方法,在非平行文本条件下,通过深度神经网络提取瓶颈特征,即Bottleneck特征,然后基于变分自编码模型实现转换函数的学习与建模,在转换阶段,可以实现多说话人对多说话人的转换。本发明的优势有三个方面:1)解除对平行文本的依赖,而且训练过程不需要任何对齐操作;2)可以将多个源-目标说话人对的转换系统整合在一个转换模型中,实现多对多转换;3)非平行文本条件下的多对多转换系统将为该技术走向实际语音交互提供技术支撑。
-
公开(公告)号:CN107039036A
公开(公告)日:2017-08-11
申请号:CN201710088300.3
申请日:2017-02-17
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于自动编码深度置信网络的高质量说话人识别方法,包括模型训练和说话人识别:首先对说话人语音进行预处理,提取MFCC特征参数,为不同说话人特征参数进行标记。将多名说话人特征参数输入深度置信网络进行网络训练学习,得到自动编码深度置信网络。利用训练好的自动编码深度置信网络分别对每个说话人提取的特征参数进行编码重构,输出数据作为矢量量化模型的输入,进行矢量量化模型训练。说话人识别阶段,说话人的语音特征参数经自动编码深度置信网络编码重构,输入矢量量化模型进行识别。通过深度置信网络对说话人语音特征的编码重构,提取说话人个性特征的同时,可以过滤语音中的噪声,提高了说话人识别准确性和系统鲁棒性。
-
公开(公告)号:CN108461085A
公开(公告)日:2018-08-28
申请号:CN201810207343.3
申请日:2018-03-13
Applicant: 南京邮电大学
Abstract: 本发明公开了一种短时语音条件下的说话人识别方法,包括以下步骤:(1):对不同说话人的短时语音进行预处理,提取语音特征向量并相应说话人标记;(2):用语音特征数据对深度置信网络进行有监督的训练,构建深度置信网络模型;(3):将深度置信网络模型中瓶颈层之后的网络结构去除,形成瓶颈输出网络模型;(4):将不同说话人的语音特征向量依次经过瓶颈输出网络模型,提取得到相应的瓶颈特征,然后将瓶颈特征作为矢量量化训练输入,构建矢量量化模型;(5):将待识别短时语音的语音特征向量经过瓶颈输出网络模型,提取相应瓶颈特征,再将得到的待识别短时语音的瓶颈特征输入矢量量化模型进行识别。本发明具有系统识别率高的优点。
-
公开(公告)号:CN107039036B
公开(公告)日:2020-06-16
申请号:CN201710088300.3
申请日:2017-02-17
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于自动编码深度置信网络的高质量说话人识别方法,包括模型训练和说话人识别:首先对说话人语音进行预处理,提取MFCC特征参数,为不同说话人特征参数进行标记。将多名说话人特征参数输入深度置信网络进行网络训练学习,得到自动编码深度置信网络。利用训练好的自动编码深度置信网络分别对每个说话人提取的特征参数进行编码重构,输出数据作为矢量量化模型的输入,进行矢量量化模型训练。说话人识别阶段,说话人的语音特征参数经自动编码深度置信网络编码重构,输入矢量量化模型进行识别。通过深度置信网络对说话人语音特征的编码重构,提取说话人个性特征的同时,可以过滤语音中的噪声,提高了说话人识别准确性和系统鲁棒性。
-
公开(公告)号:CN108777140B
公开(公告)日:2020-07-28
申请号:CN201810393556.X
申请日:2018-04-27
Applicant: 南京邮电大学
IPC: G10L13/02 , G10L13/04 , G10L13/047 , G10L13/08 , G10L21/007 , G10L19/02 , G10L25/24 , G10L25/30
Abstract: 本发明公开了一种在非平行语料训练条件下基于VAE的语音转换方法,在非平行文本条件下,通过深度神经网络提取瓶颈特征,即Bottleneck特征,然后基于变分自编码模型实现转换函数的学习与建模,在转换阶段,可以实现多说话人对多说话人的转换。本发明的优势有三个方面:1)解除对平行文本的依赖,而且训练过程不需要任何对齐操作;2)可以将多个源‑目标说话人对的转换系统整合在一个转换模型中,实现多对多转换;3)非平行文本条件下的多对多转换系统将为该技术走向实际语音交互提供技术支撑。
-
-
-
-
-
-