面向免验配助听器的语音质量自评估方法

    公开(公告)号:CN111968677A

    公开(公告)日:2020-11-20

    申请号:CN202010854269.1

    申请日:2020-08-21

    Abstract: 本发明公开了一种面向免验配助听器的语音质量自评估方法,包括:构建并训练语音质量自评估网络:待测语音通过卷积神经网络提取并输出待测语音的帧级特征;待测语音的帧级特征通过循环神经网络得到并输出待测语音的段级特征;待测语音的段级特征输入至线性映射模型和Softmax分类器,对分类器的输出进行判决确定语音的失真类型,并结合线性映射模型的输出得到客观评分。本发明公开了一种面向免验配助听器的语音质量自评估方法,将卷积神经网络、循环神经网络和Softmax分类器有机地结合成一个整体,结合卷积神经网络的特征挖掘能力和循环神经网络的时序建模能力,提高无参考语音质量客观评价方法准确度,大大简化了处理过程。

    基于多种特征融合的语音篡改检测方法

    公开(公告)号:CN110853668A

    公开(公告)日:2020-02-28

    申请号:CN201910845466.4

    申请日:2019-09-06

    Abstract: 本发明公开了一种基于多种特征融合的语音篡改检测方法,检测语音文件是否为拼接而成,包括以下步骤:步骤S1、将待检测的语音数据进行分帧,划分为多组语音数据帧;步骤S2、对每组语音数据帧提取多维特征;步骤S3、构建基于Attention-RNN的模型作为分类器;步骤S4、将步骤S2中提取到的多维特征输入训练好的分类器,从而判断当前帧语音是否被篡改。本发明的方法通过提取帧级特征能够有效挖掘语音信号中前后特征的差异,将多种特征相结合,语音特征挖掘更加丰富,利用注意力机制为同一样本的局部赋予不同的重要性,自动学习出时序信号的特征。

    基于改进神经网络的音频篡改识别算法

    公开(公告)号:CN110853656A

    公开(公告)日:2020-02-28

    申请号:CN201910845468.3

    申请日:2019-09-06

    Abstract: 本发明公开了一种基于改进神经网络的音频篡改识别算法,其将任意大小的谱图池化成固定长度的谱图表示的CNNs结构和具有注意力机制的LSTM结构,将信号的梅尔谱图和帧级特征引入到语音篡改识别算法中,综合了音频信号的频谱和时序信息;通过在CNNs结构中加入改进池化层,使得CNNs可以输入任意尺寸谱图,解决音频长度不固定问题;增加注意力机制挖掘高层特征的权重比例,最终得到优质的音频特征;并利用数据融合理论进行决策融合的算法;提高音频篡改识别的识别率和模型的鲁棒性。本发明能够有效识别出音频篡改与否,克服了传统音频篡改识别率较低的问题。

    基于自注意多核最大均值差异的迁移学习语音增强方法

    公开(公告)号:CN110111803A

    公开(公告)日:2019-08-09

    申请号:CN201910385769.2

    申请日:2019-05-09

    Abstract: 本发明公开了一种基于自注意多核最大均值差异的迁移学习语音增强方法,包括从原始语音中提取GFCC特征,并作为深度神经网络的输入特征;利用带噪语音与干净语音信息计算傅里叶变换域的理想浮值掩蔽,并作为深度神经网络的训练目标;构建基于深层神经网络的语音增强模型;构建自注意多核最大均值差异的迁移学习语音增强模型;训练自注意多核最大均值差异的迁移学习语音增强模型;输入目标域带噪语音的帧级特征,重建增强语音波形。本发明在多核最大均值差异前端添加自注意力算法,通过最小化源域注意到的特征和目标域注意到的特征之间的多核最大均值差异,实现对无标签的目标域的迁移学习,提高语音增强性能,具有良好的应用前景。

    基于注意力门控的循环神经网络的单通道语音增强方法

    公开(公告)号:CN110085249A

    公开(公告)日:2019-08-02

    申请号:CN201910385797.4

    申请日:2019-05-09

    Abstract: 本发明公开了一种基于注意力门控的循环神经网络的单通道语音增强方法,包括对带噪的单通道语音进行分帧加窗,提取38维信号特征;构建用于单通道语音增强的深度循环神经网络;利用纯净语音库和噪声库构建训练数据集;训练构建的深度循环神经网络;将提取的带噪语音特征输入训练好的深度循环神经网络,输出带噪语音的频带增益估计值,并进行平滑、内插得到内插增益;将内插增益作用于带噪的单通道语音,得到增强后的语音频谱。本发明能够有效抑制包括非平稳噪声在内的噪声,同时保持足够低的计算复杂度,从而能够用于实时的单通道语音增强,方法巧妙,构思新颖,具有良好的应用前景。

    一种基于声压级分段的数字助听器宽动态压缩方法

    公开(公告)号:CN105228069B

    公开(公告)日:2018-08-17

    申请号:CN201510629503.X

    申请日:2015-09-28

    Abstract: 本发明公开了一种基于声压级分段的数字助听器宽动态压缩方法,其特征在于,将语音信号分帧,并将分帧后的信号通过16通道非等宽的6阶IIR分解滤波器组进行滤波;然后计算各通道的语音信号的声压级,并结合患者的听力图,获得患者的听力补偿曲线;根据听力补偿曲线对患者进行分通道听力补偿,并将补偿后的多通道信号进行综合,得到补偿后的有用信号提供给患者。本发明所达到的有益效果是:通过将声压级进行八段细化,能够获得更加准确的输入/输出曲线;通过符合人耳听觉特性的6阶IIR分解综合滤波器组,能够得到更加符合患者实际需要的补偿增益值。

    基于改进子带信噪比估计的数字助听器降噪方法

    公开(公告)号:CN105679330A

    公开(公告)日:2016-06-15

    申请号:CN201610150663.0

    申请日:2016-03-16

    Abstract: 本发明提供一种基于改进子带信噪比估计的数字助听器降噪方法,采用分解滤波器组将原信号分解成若干个子带;然后计算出每个子带中相邻两帧信号的互相关函数和各自的均方值,从而估计出该子带的信噪比;其次根据估计出的信噪比计算各子带增益,并与子带信号相乘得到修正的子带信号;最后将修正的各子带信号综合得到降噪处理后的语音。该方法更为精准的子带信噪比估计方法使得背景噪声抑制效果更好,减轻助听器用户的听觉疲劳;方法简单高效,避免了傅里叶逆变换使得时间延迟性能获得较大程度的改善,较传统谱减法改善了60.6%,较传统维纳滤波法改善了40.7%。

    一种助听器自验配方法

    公开(公告)号:CN104053112A

    公开(公告)日:2014-09-17

    申请号:CN201410292892.7

    申请日:2014-06-26

    Abstract: 本发明公开了一种助听器自验配方法,该方法首先建立知识库,找出与当前患者最相似的历史患者,获得该历史患者的最优化助听器算法参数,然后当前患者对声音质量进行满意度评估,根据评价指标迭代更新助听器算法参数,并与知识库进行交互,然后根据更新的助听器算法参数生成测试声音给当前患者,直到当前患者满意为止。本发明引入知识库,极大地缩小了助听器算法参数匹配范围,显著提高了助听器验配效率;根据评价指标迭代更新助听器算法参数,最大限度的满足当前患者对助听器的期望值,提高了助听器算法参数的精确性。

Patent Agency Ranking