-
公开(公告)号:CN110634502B
公开(公告)日:2022-02-11
申请号:CN201910840498.5
申请日:2019-09-06
Applicant: 南京邮电大学
IPC: G10L21/0272 , G10L15/02 , G10L15/06 , G10L15/16
Abstract: 本发明提供了一种基于深度神经网络的单通道语音分离算法,主要包括以下步骤:对训练语音样本进行预处理,并提取其特征信息;使用损失函数对深度神经网络进行训练,以获得深度神经网络模型;将待测试语音样本进行预处理,提取其特征信息,并通过训练后的深度神经网络模型进行语音分离,再通过语音重构得到分离结果。本发明利用输入输出之间的非线性关系来训练深度神经网络,与传统基于单输出深度神经网络的分离方法相比,它充分挖掘了输出之间的联合关系,且分离效率较高,一次可分离两个源语音信号,有效地降低了语音的失真率,同时提高了分离语音的可懂性。
-
公开(公告)号:CN111899766B
公开(公告)日:2023-04-14
申请号:CN202010855013.2
申请日:2020-08-24
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于深度特征与声学特征寻优融合的语音情感识别方法,提出采用遗传算法对深度瓶颈特征和声学特征进行寻优融合的方法来实现高鲁棒性语音情感识别的方法,克服了现有语音情感识别方法的不足。该方法与传统基于单一深度特征或声学特征的语音情感识别方法相比较,本发明可以从不同的层次挖掘丰富的语音情感信息,对语音情感信息进行更加全面地描述,从而使得系统的识别率更高,系统鲁棒性得到进一步提升,可以很好地应用于智能人机交互中。
-
公开(公告)号:CN111899766A
公开(公告)日:2020-11-06
申请号:CN202010855013.2
申请日:2020-08-24
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于深度特征与声学特征寻优融合的语音情感识别方法,提出采用遗传算法对深度瓶颈特征和声学特征进行寻优融合的方法来实现高鲁棒性语音情感识别的方法,克服了现有语音情感识别方法的不足。该方法与传统基于单一深度特征或声学特征的语音情感识别方法相比较,本发明可以从不同的层次挖掘丰富的语音情感信息,对语音情感信息进行更加全面地描述,从而使得系统的识别率更高,系统鲁棒性得到进一步提升,可以很好地应用于智能人机交互中。
-
公开(公告)号:CN110634502A
公开(公告)日:2019-12-31
申请号:CN201910840498.5
申请日:2019-09-06
Applicant: 南京邮电大学
IPC: G10L21/0272 , G10L15/02 , G10L15/06 , G10L15/16
Abstract: 本发明提供了一种基于深度神经网络的单通道语音分离算法,主要包括以下步骤:对训练语音样本进行预处理,并提取其特征信息;使用损失函数对深度神经网络进行训练,以获得深度神经网络模型;将待测试语音样本进行预处理,提取其特征信息,并通过训练后的深度神经网络模型进行语音分离,再通过语音重构得到分离结果。本发明利用输入输出之间的非线性关系来训练深度神经网络,与传统基于单输出深度神经网络的分离方法相比,它充分挖掘了输出之间的联合关系,且分离效率较高,一次可分离两个源语音信号,有效地降低了语音的失真率,同时提高了分离语音的可懂性。
-
-
-