跨场景听觉注意力解码模型的生成方法、装置和电子设备

    公开(公告)号:CN119055253A

    公开(公告)日:2024-12-03

    申请号:CN202411557705.3

    申请日:2024-11-04

    Applicant: 安徽大学

    Abstract: 本申请涉及一种跨场景听觉注意力解码模型的生成方法、装置和电子设备,其中,该生成方法包括:获取源域脑电信号和目标域脑电信号,源域脑电信号和目标域脑电信号分别为受试者在不同场景下产生的脑电信号;通过源域脑电信号对听觉注意力解码模型进行预训练,通过目标域脑电信号对预训练后的听觉注意力解码模型进行域适应训练。本发明提出的跨场景听觉注意力解码模型的生成方法,采用正则化损失(SRL)作为域适应损失,可以最小化不同场景间的数据差异,从而减少领域偏移,可以生成适应不同场景的听觉注意力解码模型,解决了传统听觉注意力解码模型的生成方法,无法生成能够适应不同场景的听觉注意力解码模型的问题。

    基于扩散增强的多尺度时空感知的脑电数据扩增方法及其系统

    公开(公告)号:CN118940031A

    公开(公告)日:2024-11-12

    申请号:CN202410965778.X

    申请日:2024-07-18

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于扩散增强的多尺度时空感知的脑电数据扩增方法,包括以下步骤:S1:采集用户的脑电数据进行预处理,并转化为二维矩阵阵列;S2:将所有用户的数据进行对齐标准化,并划分为训练集与测试集;S3:构建扩散增强模型,利用训练集数据训练扩散增强模型;S4:构建并训练多尺度时空感知模型;S5:通过训练好的扩散增强模型生成增强样本,将增强样本与真实样本混合输入到多尺度时空感知模型中进行微调,得到训练好的多尺度时空感知模型;S6:将测试集输入到训练好的多尺度时空感知模型中,得到分类好的情感标签。还公开了一种基于扩散增强的多尺度时空感知的脑电数据扩增系统。本发明能端到端地实现高准确度的情感识别。

    基于双重注意力精炼网络的听觉注意解码方法和装置

    公开(公告)号:CN118567487B

    公开(公告)日:2024-09-24

    申请号:CN202411035097.X

    申请日:2024-07-31

    Applicant: 安徽大学

    Abstract: 本申请涉及一种基于双重注意力精炼网络的听觉注意解码方法和装置,听觉注意解码方法包括:获取脑电信号序列数据,通过滑动窗口对脑电信号序列数据进行截取,得到多个脑电信号窗口数据;通过时空特征提取网络对脑电信号窗口数据进行特征提取,生成低密度时空特征;通过第一注意力精炼网络对低密度时空特征进行精炼处理,生成浅层高密度时空特征,通过第二注意力精炼网络浅层高密度时空特征进行处理,生成深层高密度时空特征;根据浅层高密度时空特征和深层高密度时空特征,生成听觉注意表示;根据听觉注意表示,生成脑电信号序列数据的听觉注意解码结果。本申请可以提高听觉注意解码准确度,解决了目前的听觉注意解码方法存在听觉注意解码准确度低的问题。

    基于双重注意力精炼网络的听觉注意解码方法和装置

    公开(公告)号:CN118567487A

    公开(公告)日:2024-08-30

    申请号:CN202411035097.X

    申请日:2024-07-31

    Applicant: 安徽大学

    Abstract: 本申请涉及一种基于双重注意力精炼网络的听觉注意解码方法和装置,听觉注意解码方法包括:获取脑电信号序列数据,通过滑动窗口对脑电信号序列数据进行截取,得到多个脑电信号窗口数据;通过时空特征提取网络对脑电信号窗口数据进行特征提取,生成低密度时空特征;通过第一注意力精炼网络对低密度时空特征进行精炼处理,生成浅层高密度时空特征,通过第二注意力精炼网络浅层高密度时空特征进行处理,生成深层高密度时空特征;根据浅层高密度时空特征和深层高密度时空特征,生成听觉注意表示;根据听觉注意表示,生成脑电信号序列数据的听觉注意解码结果。本申请可以提高听觉注意解码准确度,解决了目前的听觉注意解码方法存在听觉注意解码准确度低的问题。

    基于增强现实系统的手部主动康复方法及其系统

    公开(公告)号:CN118315021A

    公开(公告)日:2024-07-09

    申请号:CN202410582955.6

    申请日:2024-05-11

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于增强现实系统的手部主动康复方法,包括以下步骤:S1:采用增强现实系统扫描患者手部,获取患者手部特征并对患者手部空间进行建模;S2:计算增强现实系统与患者手部的交互区域,在交互区域生成虚拟图像,让患者进行人机交互;S3:采集交互过程中患者的运动数据;S4:根据步骤S3采集的运动数据计算患者的康复系数;S5:通过计算所得康复系数评估患者的康复情况。还公开了一种基于增强现实系统的手部主动康复的系统。本发明操作简便,将医疗康复与增强现实技术有效结合,减轻了病人的训练负担,同时运用该技术还能辅助评估、优化反馈,从而大大提高康复质量和效率。

    语音分离模型的训练方法和装置、语音分离方法

    公开(公告)号:CN118230752A

    公开(公告)日:2024-06-21

    申请号:CN202410139135.X

    申请日:2024-01-31

    Applicant: 安徽大学

    Abstract: 本申请涉及一种语音分离模型的训练方法和装置、语音分离方法,语音分离模型包括教师模型和学生模型。其中,该语音分离模型的训练方法包括:获取相对应的样本音频数据和样本视频数据;通过样本音频数据和样本视频数据对教师模型进行监督训练;通过样本音频数据对学生模型进行监督训练,并在训练过程中通过训练后的教师模型对学生模型进行训练指导。通过上述语音分离模型的训练方法,最终得到高性能的学生模型。训练后的学生模型应用在实际语音分离场景中,可以准确地对单独的音频数据进行分离,而不需要相对应的视频数据进行辅助。因此,解决了现有的语音分离技术难以准确地对无同步视频数据的音频数据进行语音分离的问题。

Patent Agency Ranking