-
公开(公告)号:CN110222227B
公开(公告)日:2021-03-23
申请号:CN201910394433.2
申请日:2019-05-13
Applicant: 西安交通大学
IPC: G06F16/683 , G06K9/46 , G06K9/62
Abstract: 本发明公开了一种融合听觉感知特征和视觉特征的中国民歌地域分类方法。本发明提出同时提取听觉感知特征和视觉特征用于中国民歌的地域分类,并且提出要充分考虑两种特征对于中国民歌地域分类的适用性,从而对它们做了改进。提取听觉感知特征时,充分考虑特征对音乐语义的清晰性表达与特征的时序结构,采用CHMM模型对每类民歌建模,然后计算每首民歌对应于各个CHMM的输出概率,进而将每首歌曲的听觉感知特征转化为新的特征向量。提取音频视觉特征时,采用彩色语谱图替代灰度图以捕捉更多的纹理信息,并且同时采用纹理模式特征与模式强度特征以更全面的表征纹理。实验表明,本发明不仅可以有效识别不同地域的民歌,而且优于现有的民歌地域识别方法。
-
公开(公告)号:CN110189768A
公开(公告)日:2019-08-30
申请号:CN201910395241.3
申请日:2019-05-13
Applicant: 西安交通大学
IPC: G10L25/51
Abstract: 本发明公开了一种基于条件随机场的中国民歌地域分类方法。本发明提出考虑音乐的时序性,采用条件随机场对民歌的帧特征进行建模,其中结合受限玻尔兹曼机计算其标注序列,使用拟牛顿算法和k次对比散度方法对参数进行学习,最后进行音乐地域分类的实现。相比于传统的方法,本发明解决了特征序列时序关系缺失问题,同时采用受限玻尔兹曼机计算条件随机场标注序列,解决了以往研究计算标注序列的准确度“瓶颈”问题。此外,受限玻尔兹曼机对音频帧特征进行学习,得到音乐高级特征,增大了帧特征之间的差异,简化了手工音频特征设计的难度。本发明方法有效解决了民歌分类精度的问题,提高了民歌地域风格分类的结果。
-
公开(公告)号:CN110189768B
公开(公告)日:2021-02-02
申请号:CN201910395241.3
申请日:2019-05-13
Applicant: 西安交通大学
IPC: G10L25/51
Abstract: 本发明公开了一种基于条件随机场的中国民歌地域分类方法。本发明提出考虑音乐的时序性,采用条件随机场对民歌的帧特征进行建模,其中结合受限玻尔兹曼机计算其标注序列,使用拟牛顿算法和k次对比散度方法对参数进行学习,最后进行音乐地域分类的实现。相比于传统的方法,本发明解决了特征序列时序关系缺失问题,同时采用受限玻尔兹曼机计算条件随机场标注序列,解决了以往研究计算标注序列的准确度“瓶颈”问题。此外,受限玻尔兹曼机对音频帧特征进行学习,得到音乐高级特征,增大了帧特征之间的差异,简化了手工音频特征设计的难度。本发明方法有效解决了民歌分类精度的问题,提高了民歌地域风格分类的结果。
-
公开(公告)号:CN110222227A
公开(公告)日:2019-09-10
申请号:CN201910394433.2
申请日:2019-05-13
Applicant: 西安交通大学
IPC: G06F16/683 , G06K9/46 , G06K9/62
Abstract: 本发明公开了一种融合听觉感知特征和视觉特征的中国民歌地域分类方法。本发明提出同时提取听觉感知特征和视觉特征用于中国民歌的地域分类,并且提出要充分考虑两种特征对于中国民歌地域分类的适用性,从而对它们做了改进。提取听觉感知特征时,充分考虑特征对音乐语义的清晰性表达与特征的时序结构,采用CHMM模型对每类民歌建模,然后计算每首民歌对应于各个CHMM的输出概率,进而将每首歌曲的听觉感知特征转化为新的特征向量。提取音频视觉特征时,采用彩色语谱图替代灰度图以捕捉更多的纹理信息,并且同时采用纹理模式特征与模式强度特征以更全面的表征纹理。实验表明,本发明不仅可以有效识别不同地域的民歌,而且优于现有的民歌地域识别方法。
-
公开(公告)号:CN110223712B
公开(公告)日:2021-04-20
申请号:CN201910485792.9
申请日:2019-06-05
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于双向卷积循环稀疏网络的音乐情感识别方法。本发明结合卷积神经网络和循环神经网络自适应地从原始音频信号的二维时频表示(即时频图)中学习内含时序信息的情感显著性特征。进一步地,本发明提出采用加权混合二进制表示法,通过将回归预测问题转化为多个二分类问题的加权联合来降低数值型真实数据的计算复杂度。实验结果表明,双向卷积循环稀疏网络提取的内含时序信息的情感显著性特征与MediaEval 2015中的最优特征相比表现出更优的预测性能;提出的模型与目前普遍的音乐情感识别网络结构和最优方法相比训练时间减少且预测精度提高。因此,本发明方法有效解决了音乐情感识别的精度和效率的问题,而且优于现有的识别方法。
-
公开(公告)号:CN110223712A
公开(公告)日:2019-09-10
申请号:CN201910485792.9
申请日:2019-06-05
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于双向卷积循环稀疏网络的音乐情感识别方法。本发明结合卷积神经网络和循环神经网络自适应地从原始音频信号的二维时频表示(即时频图)中学习内含时序信息的情感显著性特征。进一步地,本发明提出采用加权混合二进制表示法,通过将回归预测问题转化为多个二分类问题的加权联合来降低数值型真实数据的计算复杂度。实验结果表明,双向卷积循环稀疏网络提取的内含时序信息的情感显著性特征与MediaEval 2015中的最优特征相比表现出更优的预测性能;提出的模型与目前普遍的音乐情感识别网络结构和最优方法相比训练时间减少且预测精度提高。因此,本发明方法有效解决了音乐情感识别的精度和效率的问题,而且优于现有的识别方法。
-
-
-
-
-