-
公开(公告)号:CN114550272A
公开(公告)日:2022-05-27
申请号:CN202210247495.2
申请日:2022-03-14
Applicant: 东南大学
IPC: G06V40/16 , G06V10/774 , G06K9/62
Abstract: 本发明公开了一种基于视频时域动态注意力模型的微表情识别方法及装置,方法包括:(1)获取微表情数据库,所述微表情数据中包括若干微表情视频和对应的微表情类别标签;(2)构建微表情识别模型,所述微表情识别模型包括:光流特征提取模块、深度特征提取模块、加权深度特征提取模块、全连接层以及softmax层,用于根据加权视频级别深度特征识别出对应微表情视频所属类别;(3)将微表情数据库的每一微表情视频和对应标签作为一个样本,输入所述微表情识别模型,进行训练;(4)将待识别的微表情视频输入训练好的微表情识别模型,输出即为识别的微表情类别。本发明识别准确率更高。
-
公开(公告)号:CN114469137A
公开(公告)日:2022-05-13
申请号:CN202111560169.9
申请日:2021-12-20
Applicant: 东南大学
Abstract: 本发明公开了一种基于空时特征融合模型的跨领域脑电情感识别方法和系统,方法包括:(1)获取两个脑电情感数据库,一个作为训练集另一个作为测试集;(2)建立脑电情感识别网络,包括从前到后依次连接的预处理器、数据对齐器、空时特征提取器和情感分类器,其中,所述空时特征提取器首先提取脑电情感数据的时频谱特征,然后将提取的时频谱特征转换为三维张量后进行空时特征提取,所述情感分类器根据空时特征进行情感分类;(3)对所述脑电情感识别网络进行训练;(4)获取待识别的脑电情感数据,将其作为一个测试集样本输入训练好的脑电情感识别网络,得到识别的情感类别。本发明识别准确率更高。
-
公开(公告)号:CN110321820A
公开(公告)日:2019-10-11
申请号:CN201910549413.8
申请日:2019-06-24
Applicant: 东南大学
Abstract: 本发明公开了一种基于非接触式设备的视线落点检测方法,用于孤独症谱系障碍早期筛查场景下的视线落点检测系统,包括以下步骤:基于非接触式设备的数据采集场景:用于采集无约束场景下婴幼儿交互行为的多角度视频数据;视线落点检测网络:提取研究对象位置特征、头部姿态特征、眼部特征得到视线特征,与场景组件显著性特征融合,设计混合损失函数迭代更新网络模型参数,从而得到研究对象视线范围内最可能关注的显著性位置,作为视线落点。本发明避免了穿戴式设备的不利影响,且低干扰、低成本、易推广,方便采集包含研究对象、场景元素及交互对象在内多角度画面的完整信息。
-
公开(公告)号:CN115171662B
公开(公告)日:2025-04-04
申请号:CN202210748096.4
申请日:2022-06-29
Applicant: 东南大学
Abstract: 本发明公开了一种基于CISF模型的跨库语音情感识别方法及装置,方法包括:(1)获取两个语音情感数据库,分别作为训练数据库和测试数据库:(2)提取训练数据库和测试数据库中具有相同情感类别标签的语音样本,分别作为源域样本和目标域样本,并提取源域样本和目标域样本的IS09特征作为样本特征;(3)建立语料库无关显著性特征选择模型(4)对所述语料库无关显著性特征选择模型进行学习,得到投影矩阵U的最优值#imgabs0#(5)对于待识别语音,提取IS09特征,并采用学习到的#imgabs1#投影得到对应的情感类别。本发明识别准确率更高。
-
公开(公告)号:CN117352007A
公开(公告)日:2024-01-05
申请号:CN202311373024.7
申请日:2023-10-23
Applicant: 东南大学
Abstract: 本发明公开了一种基于LIDAN(层自适应隐式分布对齐神经网络)的跨库语音情感识别方法及装置,包括如下步骤:(1)获取训练数据库和测试数据库;(2)将训练数据库和测试数据库中的各语音样本分别转换为语谱图;(3)构建层自适应隐式分布对齐神经网络LIDAN,包括卷积神经网络、多层感知机、情感分类器、深度回归模块、层自适应隐式分布对齐模块和损失计算模块;(4)基于训练数据库和测试数据库的语音样本的语谱图,对LIDAN进行训练;(5)对于待识别的语音样本,将其转换为语谱图后输入LIDAN,得到预测的情感类别。本发明识别效果更好。
-
公开(公告)号:CN115497508B
公开(公告)日:2025-02-25
申请号:CN202211010154.X
申请日:2022-08-23
Applicant: 东南大学
Abstract: 本发明公开了一种基于CDAR模型的跨库语音情感识别方法及装置,方法包括:(1)获取两个语音情感数据库,分别作为训练数据库和测试数据库,(2)从训练数据库和测试数据库中提取具有相同情感类别标签的语音样本,分别作为源域样本和目标域样本,并提取源域样本和目标域样本的IS09特征作为样本特征;(3)建立协同分布适配回归CDAR模型,(4)利用交替方向法和非精确增广拉格朗日乘子求解CDAR模型,得到投影矩阵U的最优值#imgabs0#(5)对于待识别语音,提取IS09特征,并采用学习到的#imgabs1#投影得到对应的情感类别。本发明识别准确率更高。
-
公开(公告)号:CN115035915A
公开(公告)日:2022-09-09
申请号:CN202210605389.7
申请日:2022-05-31
Applicant: 东南大学
IPC: G10L25/63 , G10L25/27 , G10L25/03 , G06F16/683
Abstract: 本发明公开了一种基于隐式对齐子空间学习的跨库语音情感识别方法及装置,方法包括:(1)获取两个语音情感数据库,分别作为训练数据库和测试数据库;(2)对训练数据库和测试数据库中的每个语音样本提取语音特征;(3)建立联合分布隐式对齐子空间学习模型(4)根据语音样本的语音特征对所述学习模型进行学习,得到语料不变投影矩阵U的最优值(5)对于待识别语音,按照步骤(2)得到语音特征,并采用学习到的得到对应的情感类别。本发明识别准确率更高。
-
公开(公告)号:CN111832426A
公开(公告)日:2020-10-27
申请号:CN202010578064.5
申请日:2020-06-23
Applicant: 东南大学
Abstract: 本发明公开了一种基于双稀疏迁移学习的跨库微表情识别方法及装置,方法包括:(1)获取不同的微表情训练数据库和测试数据库(2)将训练数据库和测试数据库中的微表情数据分别处理得到微表情的LBP-TOP特征;(3)建立双稀疏迁移学习模型;(4)将训练数据库和测试数据库的微表情特征数据输入双稀疏迁移学习模型进行训练,训练时;(5)获取待识别的微表情数据LBP-TOP特征,输入训练好的双稀疏迁移学习模型,输出情感类别。本发明准确率更高。
-
公开(公告)号:CN114469137B
公开(公告)日:2023-12-26
申请号:CN202111560169.9
申请日:2021-12-20
Applicant: 东南大学
Abstract: 本发明公开了一种基于空时特征融合模型的跨领域脑电情感识别方法和系统,方法包括:(1)获取两个脑电情感数据库,一个作为训练集另一个作为测试集;(2)建立脑电情感识别网络,包括从前到后依次连接的预处理器、数据对齐器、空时特征提取器和情感分类器,其中,所述空时特征提取器首先提取脑电情感数据的时频谱特征,然后将提取的时频谱特征转换为三维张量后进行空时特征提取,所述情感分类器根据空时特征进行情感分类;(3)对所述脑电情感识别网络进行训练;(4)获取待识别的脑电情感数据,将其作为一个测试集样本输入训练好的脑电情感识别网络,得到识别的情感类别。本发明识别准确率更高。
-
公开(公告)号:CN111259759B
公开(公告)日:2023-04-28
申请号:CN202010030236.5
申请日:2020-01-13
Applicant: 东南大学
IPC: G06V40/16 , G06V10/766 , G06V10/778 , G06F16/75 , G06F16/78 , G06F16/783
Abstract: 本发明公开了一种基于域选择迁移回归的跨数据库微表情识别方法及装置,包括:(1)获取两个微表情数据库,分别作为训练数据库和测试数据库,其中,每个微表情数据库中包含有若干微表情视频和对应的微表情类别标签;(2)将训练数据库和测试数据库中的微表情视频转换为微表情图像序列,并从中提取出灰度人脸图像,再经过分块后提取人脸局部区域特征;(3)建立域选择迁移回归模型,并采用人脸局部区域特征对其进行学习,得到一个连接人脸局部区域特征与微表情类别标签之间的稀疏投影矩阵;(4)对于待识别的微表情,按照步骤(2)得到人脸局部区域特征,并采用学习到的稀疏投影矩阵,得到对应的微表情类别标签。本发明准确率更高。
-
-
-
-
-
-
-
-
-