-
公开(公告)号:CN117195153A
公开(公告)日:2023-12-08
申请号:CN202311217545.3
申请日:2023-09-20
Applicant: 安徽大学
IPC: G06F18/25 , G06F18/213 , G06F18/214 , G06N3/045 , G06N3/0895 , G06N3/09 , G06F18/2411 , G06F123/02
Abstract: 本发明公开了一种基于对比性学习的EEG‑EOG多模态情感识别方法,包括以下步骤:S1:设计实验范式;S2:采集受试者的EEG信号和EOG信号;S3:数据预处理;S4:对比学习:采用一个基编码器和投影模块来对齐同一被试者的EEG和EOG信号片段的小批量数据,并不断优化基编码器和投影模块的参数;S5:使用预训练后的基编码器从对齐的EEG和EOG信号表征中提取DE情感特征;S6:分类识别,得到情感识别的识别率。还公开了一种基于对比性学习的EEG‑EOG多模态情感识别系统。本发明基于对比性学习方法,预训练基编码器来对齐EEG和EOG信号,从而实现多模态信号的融合,提高情感识别的识别率。
-
公开(公告)号:CN111443804B
公开(公告)日:2022-08-19
申请号:CN202010224123.9
申请日:2020-03-26
Applicant: 安徽大学
Abstract: 本发明公开了一种基于视频分析的注视点轨迹描述系统,包括数据采集及预处理模块、瞳孔定位模块、注视点标定模块、注视点轨迹描述模块。还公开了一种基于视频分析的注视点轨迹描述方法,通过采集视频眼动图像,并进行预处理操作,通过瞳孔粗定位与瞳孔精定位方法,求出瞳孔中心与角膜反射光斑中心在眼图中的坐标,结合动态头部补偿模型,求出瞳孔中心与角膜反射光斑中心所构成的矢量与注视点之间的三维空间映射关系,通过该映射函数进行注视点轨迹描述。本发明在建立注视点三维空间映射关系的基础上,获取用户的注视点轨迹,提高人们对用户感兴趣区域的预判能力,能有效地支持广告类网页布局的优化,具有使用简单、方法精度高及应用潜力大等优点。
-
公开(公告)号:CN110516711A
公开(公告)日:2019-11-29
申请号:CN201910677300.6
申请日:2019-07-25
Applicant: 安徽大学
IPC: G06K9/62 , G06K9/00 , A61B5/0476 , A61B5/04 , A61B5/00
Abstract: 本发明公开了一种MI-BCI系统的训练集质量评估方法和单次训练样本的优化选择方法,采集单次试验MI-EEG数据;设计相应的ICA空域滤波器;计算单次识别率Acc(k)和总体识别率Acc;确定用于单次试验数据质量评估的量化指标;计算训练样本质量的综合评分Cs;根据Cs的数值对训练集的质量进行评估。再根据所得Acc、量化指标和综合评分Cs,对训练集中的单次试验样本进行优化选择。本发明的训练集质量评估方法和单次训练样本的优化方法,具有较好的稳定性、准确性和运算复杂度低等优点。
-
公开(公告)号:CN106491129A
公开(公告)日:2017-03-15
申请号:CN201610885750.0
申请日:2016-10-10
Applicant: 安徽大学
IPC: A61B5/0496 , G06K9/00 , G06F3/01
Abstract: 本发明公开了一种基于EOG的人体行为识别系统及方法,首先建立一个基于Hjorth参数的EOG信号识别模型,用于实现对原始单元EOG信号的识别;同时,使用N-gram方法统计背景任务下不同行为状态的上下文关系,并建立一个眼动信号-行为状态关系模型;最后,通过置信度参数对两个模型输出的结果进行综合的分析与判断,以获取受试者最可能的行为状态。本发明的一种基于EOG的人体行为识别方法,具有识别正确率更高、扩展性更强、应用前景良好等优点。
-
公开(公告)号:CN105640500A
公开(公告)日:2016-06-08
申请号:CN201510975646.6
申请日:2015-12-21
Applicant: 安徽大学
IPC: A61B5/00 , A61B5/0496
CPC classification number: A61B5/0496 , A61B5/72 , A61B5/7203
Abstract: 本发明公开了一种基于独立分量分析的扫视信号特征提取方法,采集6导联扫视眼电信号并对其进行带通滤波处理,将滤波后的数据使用ICA方法建立对应不同扫视任务背景下的空域滤波器组后,进行线性投影,获取扫视信号的空域特征参数。本发明还公开了一种基于独立分量分析的扫视信号特征提取方法的识别方法,对眼动数据库中每个实验样本建立ICA空域滤波器组,提取特征参数,结合支持向量机进行交叉验证,确定最优ICA滤波器组及SVM模型参数;使用最优ICA空域滤波器组进行滤波后送入SVM分类器中进行识别。本发明的一种基于独立分量分析的扫视信号特征提取方法与识别方法,具有识别正确率更高、扩展性更强、应用前景良好等优点。
-
公开(公告)号:CN103892829A
公开(公告)日:2014-07-02
申请号:CN201410156043.9
申请日:2014-04-17
Applicant: 安徽大学
IPC: A61B5/0496
Abstract: 本发明公开了一种基于共同空间模式的眼动信号识别系统及其识别方法,眼动信号识别系统包括眼动信号预处理模块、空域滤波器训练模块及眼动信号识别模块。识别方法包括:采集基于眼电图的眼动数据并对眼动数据进行预处理;将预处理后的所有数据分成训练数据和测试数据两个部分;对于训练数据,采用CSP算法对其进行空域滤波,并将滤波后结果作为特征参数输入到SVM分类器中进行SVM模型训练;对测试数据,同样使用CSP算法进行特征提取,并将结果送入已训练好的SVM分类器中进行识别,最终得到眼部动作的识别结果。本发明的眼动信号识别系统及其识别方法,具有对眼动信号识别正确率较高、眼动信号扩展分类能力较强、应用潜力大等优点。
-
公开(公告)号:CN112992119B
公开(公告)日:2024-05-03
申请号:CN202110052375.2
申请日:2021-01-14
Applicant: 安徽大学
IPC: G10L15/00 , G10L15/02 , G10L15/06 , G10L15/08 , G10L15/16 , G10L15/30 , G06F18/2415 , G06N3/0464 , G06N3/044 , G06N3/0455 , G06N3/048
Abstract: 本发明公开了一种基于深度神经网络的口音分类方法,包括:提取原始音频的帧级频域特征,构建2D语音频谱作为网络输入X;构建一个多任务权值共享的基于CRNNs的前端编码器来提取频谱X的局部序列描述符{P1,…,PT'};在训练过程中,前端编码器后增设语音识别任务分支网络,用来抑制口音识别中的过拟合现象;构建用于口音识别任务的核心分支网络,首先将所有局部序列描述符整合成一个全局口音特征;然后在预测过程中引入判别性损失函数;最后通过基于softmax的分类层对全局口音特征进行分类,实现口音预测。还公开了一种高度可判别性的基于深度神经网络的口音分类模型,对来自不同区域群体的说话人能给出一个可靠的口音预测。
-
公开(公告)号:CN110516711B
公开(公告)日:2022-10-21
申请号:CN201910677300.6
申请日:2019-07-25
Applicant: 安徽大学
Abstract: 本发明公开了一种MI‑BCI系统的训练集质量评估方法和单次训练样本的优化选择方法,采集单次试验MI‑EEG数据;设计相应的ICA空域滤波器;计算单次识别率Acc(k)和总体识别率Acc;确定用于单次试验数据质量评估的量化指标;计算训练样本质量的综合评分Cs;根据Cs的数值对训练集的质量进行评估。再根据所得Acc、量化指标和综合评分Cs,对训练集中的单次试验样本进行优化选择。本发明的训练集质量评估方法和单次训练样本的优化方法,具有较好的稳定性、准确性和运算复杂度低等优点。
-
公开(公告)号:CN108710895B
公开(公告)日:2022-03-22
申请号:CN201810366834.2
申请日:2018-04-23
Applicant: 安徽大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于独立分量分析的运动想象脑电信号分类方法,包括以下步骤:S1:采集脑电信号并对脑电信号进行预处理,将预处理后的脑电信号随机分为训练集和测试集;S2:将训练集数据依次选择单次试验样本数据进行独立分量分析计算,并基于源的空间分布模式实现运动相关分量的自动识别获取;S3:基于零训练分类器的运动想象分类识别;S4:使用训练集数据进行导联的优化选择,将优化后的导联代入测试集,循环步骤S2和S3,得到最终的分类识别率。本发明可以减少由采集的EEG数据之间的差异性所带来的空域模型匹配问题产生,对运动想象EEG信号具有较高的识别正确率。
-
公开(公告)号:CN112102949A
公开(公告)日:2020-12-18
申请号:CN202010894355.5
申请日:2020-08-31
Applicant: 安徽大学
IPC: G16H50/30 , G06K9/00 , A61B5/0205
Abstract: 本发明公开了一种面部血流脉冲信号和面部器官运动特征提取方法,利用本发明的稳定性好、抗干扰能力强的面部视频采集设备拍摄高质量面部视频,再利用信号处理技术对面部视频序列空间滤波、预处理,然后经ICA盲源分离算法分离得到面部血流脉冲信号和面部器官运动特征,最后针对ICA的排序模糊的问题,采用一种基于SNR和谱峭度的BVP自动提取方法,计算出心率、呼吸率的生命体征参数。本发明不仅可以提取BVP信号,进而获得心率、呼吸率等生命体征参数,还能对面部器官动作相关的信号成分进行检测,如眼动特征检测和唇部运动特征检测等,为表情分析、情感识别、疲劳监测和心理状态评估等提供方便适用的穿戴式面部视频采集装置及其方法。
-
-
-
-
-
-
-
-
-