-
公开(公告)号:CN117992909A
公开(公告)日:2024-05-07
申请号:CN202410124705.8
申请日:2024-01-29
Applicant: 安徽大学
IPC: G06F18/25 , A61B5/369 , A61B3/024 , G06F18/213 , G06V40/16 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本申请涉及一种视听场景下的听觉注意解码方法、装置和助听系统,其中,该目标说话者定位方法包括;实时获取听者的脑电信号和视野图像;其中,所述脑电信号通过佩戴于听者头部的脑电信号采集设备采集得到,所述视野图像通过与听者头部同步运动的图像采集设备采集得到;将所述脑电信号和所述视野图像输入基于机器学习的听觉注意解码模型,通过所述听觉注意解码模型得到目标说话者的空间方位。本发明充分考虑了实际场景中可用于定位目标说话者的信息,进而能够更加准确地锁定目标说话者的空间方位,改进了现有的听觉注意解码算法,可以更加充分地注意目标说话者的声音,解决了目前的听觉注意解码算法对目标声源的定位准确性较低的问题。
-
公开(公告)号:CN118121192B
公开(公告)日:2024-09-13
申请号:CN202410155072.7
申请日:2024-02-02
Applicant: 安徽大学
Abstract: 本发明公开了一种基于时频域融合的听觉注意检测方法和系统。首先根据不同的决策窗口长度将脑电信号划分成多个与之对应的滑动窗口,再分别通过空域特征提取模块和多频带微分熵模块提取后将其对应结果分别输入到两个并行模块:时间注意力模块和频率残差模块。其中,本发明通过时间注意力模块提取时域特征,通过频率残差模块提取频域特征,最后通过特征融合和分类器模块将时频域特征融合并以此得到听觉注意检测的结果。经过实验证明,本发明得到的预测结果与现有方法相比更加准确,提高了听觉注意检测的精度。
-
公开(公告)号:CN117992909B
公开(公告)日:2024-07-05
申请号:CN202410124705.8
申请日:2024-01-29
Applicant: 安徽大学
IPC: G06F18/25 , A61B5/369 , A61B3/024 , G06F18/213 , G06V40/16 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本申请涉及一种视听场景下的听觉注意解码方法、装置和助听系统,其中,该目标说话者定位方法包括;实时获取听者的脑电信号和视野图像;其中,所述脑电信号通过佩戴于听者头部的脑电信号采集设备采集得到,所述视野图像通过与听者头部同步运动的图像采集设备采集得到;将所述脑电信号和所述视野图像输入基于机器学习的听觉注意解码模型,通过所述听觉注意解码模型得到目标说话者的空间方位。本发明充分考虑了实际场景中可用于定位目标说话者的信息,进而能够更加准确地锁定目标说话者的空间方位,改进了现有的听觉注意解码算法,可以更加充分地注意目标说话者的声音,解决了目前的听觉注意解码算法对目标声源的定位准确性较低的问题。
-
公开(公告)号:CN118121192A
公开(公告)日:2024-06-04
申请号:CN202410155072.7
申请日:2024-02-02
Applicant: 安徽大学
Abstract: 本发明公开了一种基于时频域融合的听觉注意检测方法和系统。首先根据不同的决策窗口长度将脑电信号划分成多个与之对应的滑动窗口,再分别通过空域特征提取模块和多频带微分熵模块提取后将其对应结果分别输入到两个并行模块:时间注意力模块和频率残差模块。其中,本发明通过时间注意力模块提取时域特征,通过频率残差模块提取频域特征,最后通过特征融合和分类器模块将时频域特征融合并以此得到听觉注意检测的结果。经过实验证明,本发明得到的预测结果与现有方法相比更加准确,提高了听觉注意检测的精度。
-
-
-