基于联合约束和共享编码器的噪声感知时域语音分离方法

    公开(公告)号:CN117524243A

    公开(公告)日:2024-02-06

    申请号:CN202311016180.8

    申请日:2023-08-14

    Abstract: 本发明公开了一种基于联合约束和共享编码器的噪声感知时域语音分离方法。首先,含噪情况下的语音分离会出现估计语音中残余噪声的问题,本发明提出将噪声作为与语音同等的估计目标,直接抑制语音信号中可能存在的残余噪声。其次,为了使分离出的信号与目标信号在时域和频域上都更加接近,本发明引入了加权时频联合约束,使所提出的网络能够学习有助于在两个维度上分离噪声混合语音的信息。最后,通过参数共享编码器将噪声语音信号转换为特征空间,减少模型参数的数量,提高训练速度。本发明实现了对语音分离系统性能的提升,使系统分离出的语音在各种测量指标上均有提升,适用于智能人机交互。

    一种基于结构化状态空间序列模型的双分支语音增强算法

    公开(公告)号:CN117219109A

    公开(公告)日:2023-12-12

    申请号:CN202311342274.4

    申请日:2023-10-17

    Abstract: 本发明公开一种基于结构化状态空间序列模型的双分支语音增强算法,包括:获取含噪语音的幅度谱和复数谱特征,并将其分别输入幅度粗略估计分支和复数细化估计分支,得到粗略估计的语音和细化之后的语音的实虚分量;引入交互模块实现幅度谱和复数谱特征在两分支之间的流动;将粗略估计的语音和细化之后的语音的实虚分量叠加,重建目标信号复数谱;对基于结构化状态空间序列模型的双分支增强算法进行性能评估。本发明同时估计幅度谱和复数谱并引入交互模块促进信息交流,使从一个分支学习到的特征能补充另一个分支缺失的信息;本发明使用一种对角化的状态空间模型对语音特征序列进行建模,既减少模型的参数量,又提升算法性能。

    一种基于深度神经网络的单通道语音分离方法

    公开(公告)号:CN115273887A

    公开(公告)日:2022-11-01

    申请号:CN202210598726.4

    申请日:2022-05-30

    Abstract: 本发明公开了一种基于多重联合约束双输出深度神经网络的单通道语音分离方法,首先提出了三种联合约束损失函数,并进行整合,提出一种多重联合约束损失函数,用于训练双输出深度神经网络以解决单通道语音分离问题。该多重联合约束损失函数充分利用了网络输出值之间的关系,输出值与目标语音特征之间的关系,估计目标语音特征与混合语音特征之间的关系,在该损失函数指导下训练的深度神经网络可以输出更精确的预测值。此外,本发明采用优化思想求解了各约束项所对应的最优权重系数,使每项的约束力度更精准,进一步提升了分离系统的性能。实验结果表明,相比基于传统损失函数的方法,该方法的性能更加优越,能够更有效地分离出目标语音。

    基于强约束字典和深度神经网络的两阶段单通道语音分离方法

    公开(公告)号:CN114898769A

    公开(公告)日:2022-08-12

    申请号:CN202210532215.2

    申请日:2022-05-09

    Abstract: 本发明公开了一种基于强约束字典和深度神经网络的两阶段单通道语音分离方法。首先,基于字典学习的语音分离方法常出现“交叉投影”问题,本发明提出了强约束的优化函数,在此函数约束下构建更具有区分性的联合字典,来减少“交叉投影”。其次,为了提高两个相似信号的分离效果,本发明提出两阶段单通道语音分离方法,第一阶段利用强约束字典实现语音分离,得到初步估计信号。第二阶段利用映射能力强的深度神经网络,通过联合约束实现语音与交叉投影残余的分离,去除交叉投影残余的影响,得到精细估计信号。本发明实现了对语音分离系统性能的提升,使系统分离出的语音在五种测量指标上均有提升,适用于智能人机交互。

Patent Agency Ranking