一种基于U型网络和音频指纹的音乐与人声分离方法

    公开(公告)号:CN113129920A

    公开(公告)日:2021-07-16

    申请号:CN202110403350.2

    申请日:2021-04-15

    Abstract: 本发明涉及一种基于U型网络和音频指纹的音乐与人声分离方法:当输入混合音频时,首先经过已经训练好的音乐分离模型,得到分离的伴奏音频;然后采用指纹提取算法,提取出伴奏音频中的指纹;随后将这些指纹送入到音频指纹数据库中,检索出对应匹配的歌曲以及时间点offset;随后将检索出的歌曲进行音量的调整;在匹配歌曲时间点offset前后一段时间内的采样点进行匹配,得到得到一段音频波形;再将分离音频与这段波形的音量进行精确匹配;最后混合音频减去这段波形最后得到较为纯净的音频。该方法设计一种基于U型网络架构的音乐分离模型,以及在该模型后加入音频指纹检索进行再分离,使分离效果差距明显缩小,得到纯净人声。

    一种基于U型网络和音频指纹的音乐与人声分离方法

    公开(公告)号:CN113129920B

    公开(公告)日:2021-08-17

    申请号:CN202110403350.2

    申请日:2021-04-15

    Abstract: 本发明涉及一种基于U型网络和音频指纹的音乐与人声分离方法:当输入混合音频时,首先经过已经训练好的音乐分离模型,得到分离的伴奏音频;然后采用指纹提取算法,提取出伴奏音频中的指纹;随后将这些指纹送入到音频指纹数据库中,检索出对应匹配的歌曲以及时间点offset;随后将检索出的歌曲进行音量的调整;在匹配歌曲时间点offset前后一段时间内的采样点进行匹配,得到得到一段音频波形;再将分离音频与这段波形的音量进行精确匹配;最后混合音频减去这段波形最后得到较为纯净的音频。该方法设计一种基于U型网络架构的音乐分离模型,以及在该模型后加入音频指纹检索进行再分离,使分离效果差距明显缩小,得到纯净人声。

Patent Agency Ranking