-
公开(公告)号:CN114743235A
公开(公告)日:2022-07-12
申请号:CN202210196086.4
申请日:2022-03-01
Applicant: 东南大学
IPC: G06V40/16 , G06V10/774 , G06K9/62
Abstract: 本发明公开了一种基于稀疏化自注意力机制的微表情识别方法及系统,方法包括:(1)获取微表情数据库(2)将微表情视频转换为微表情图像序列并进行预处理;(3)对预处理后的微表情图像序列使用运动放大网络进行微表情强度的放大,得到增强微表情图像序列;(4)建立微表情识别网络,所述微表情识别网络包括resnet‑18、稀疏化自注意力模块、特征拼接层、第一全连接层、第二全连接层和softmax层(5)训练微表情识别网络;(6)对于待识别的微表情视频,依次按照步骤(2)、(3)处理,并输入训练好的微表情识别网络,得到对应的微表情类别。本发明识别准确率更高。
-
公开(公告)号:CN110516571B
公开(公告)日:2022-02-11
申请号:CN201910756936.X
申请日:2019-08-16
Applicant: 东南大学
IPC: G06V40/16 , G06V10/774 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于光流注意力神经网络的跨库微表情识别方法及装置,方法包括:(1)获取两个不同的微表情数据库作为训练集和测试集;(2)将微表情视频转化为人脸图像序列;(3)从每一人脸图像序列中抽取起始帧、峰值帧和终止帧,由起始帧和峰值帧计算得到第一单通道光流图,由峰值帧和终止帧计算得到第二单通道光流图;(4)将每一人脸图像序列的第一单通道光流图、第二单通道光流图和峰值帧组成融合特征图;(5)建立光流注意力神经网络,并将训练集和测试集对应融合特征图作为输入进行训练;(6)将待识别的微表情视频处理得到融合特征图,输入光流注意力神经网络,得到微表情类别。本发明泛化能力强,识别准确率高。
-
公开(公告)号:CN110287805B
公开(公告)日:2021-02-09
申请号:CN201910468036.5
申请日:2019-05-31
Applicant: 东南大学
Abstract: 本发明公开了一种基于三流卷积神经网络的微表情识别方法及系统,所述方法包括:(1)获取若干微表情视频,转化为若干微表情图像序列样本;(2)从所述图像序列样本中提取出单通道人脸灰度图像,作为静态空间特征;(3)对所述单通道人脸灰度图像进行分块和堆叠,得到多通道灰度图像,作为局部空间特征;(4)对于所述图像序列样本,计算由水平/垂直光流场堆叠而成的四通道灰度图像,作为动态时间特征;(5)建立由静态空间流、堆叠空间流、动态时间流三路卷积网络合并而成的三流卷积神经网络,将每路对应特征作为输入,对三流卷积神经网络进行训练;(6)将待识别的微表情视频输入训练好的三流卷积神经网络,得到识别出的微表情。本发明识别率更高。
-
公开(公告)号:CN110287805A
公开(公告)日:2019-09-27
申请号:CN201910468036.5
申请日:2019-05-31
Applicant: 东南大学
Abstract: 本发明公开了一种基于三流卷积神经网络的微表情识别方法及系统,所述方法包括:(1)获取若干微表情视频,转化为若干微表情图像序列样本;(2)从所述图像序列样本中提取出单通道人脸灰度图像,作为静态空间特征;(3)对所述单通道人脸灰度图像进行分块和堆叠,得到多通道灰度图像,作为局部空间特征;(4)对于所述图像序列样本,计算由水平/垂直光流场堆叠而成的四通道灰度图像,作为动态时间特征;(5)建立由静态空间流、堆叠空间流、动态时间流三路卷积网络合并而成的三流卷积神经网络,将每路对应特征作为输入,对三流卷积神经网络进行训练;(6)将待识别的微表情视频输入训练好的三流卷积神经网络,得到识别出的微表情。本发明识别率更高。
-
公开(公告)号:CN115497508B
公开(公告)日:2025-02-25
申请号:CN202211010154.X
申请日:2022-08-23
Applicant: 东南大学
Abstract: 本发明公开了一种基于CDAR模型的跨库语音情感识别方法及装置,方法包括:(1)获取两个语音情感数据库,分别作为训练数据库和测试数据库,(2)从训练数据库和测试数据库中提取具有相同情感类别标签的语音样本,分别作为源域样本和目标域样本,并提取源域样本和目标域样本的IS09特征作为样本特征;(3)建立协同分布适配回归CDAR模型,(4)利用交替方向法和非精确增广拉格朗日乘子求解CDAR模型,得到投影矩阵U的最优值#imgabs0#(5)对于待识别语音,提取IS09特征,并采用学习到的#imgabs1#投影得到对应的情感类别。本发明识别准确率更高。
-
公开(公告)号:CN118552994A
公开(公告)日:2024-08-27
申请号:CN202410606630.7
申请日:2024-05-16
Applicant: 东南大学
IPC: G06V40/16 , G06V20/40 , G06V10/764 , G06V10/40 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/047 , G06N3/084 , G06N3/09
Abstract: 本发明公开了一种基于微弱强度感知增强的微表情识别方法及装置,方法包括:获取微表情数据库;对每个微表情视频样本进行分段处理,并从每段中随机抽取一帧组合为帧序列,并对帧序列进行预处理;构建强度感知神经网络,所述强度感知神经网络包括特征提取模块和微表情识别模块;构建链式排序损失函数、交叉熵损失函数、全局排序损失函数,将链式排序损失函数、交叉熵损失函数和全局排序损失函数的加权和作为总损失函数,并通过梯度下降优化此损失函数来训练所述强度感知神经网络;将待识别的微表情视频处理后,输入训练好的强度感知神经网络,识别出微表情类别。本发明准确性更高。
-
公开(公告)号:CN117219126A
公开(公告)日:2023-12-12
申请号:CN202311373019.6
申请日:2023-10-23
Applicant: 东南大学
Abstract: 本发明公开了一种基于TSTRN(双阶段迁移回归神经网络)的跨库语音情感识别方法及装置,包括:(1)选择两个不同的语音情感数据库作为源数据库和目标数据库;(2)对于源数据库和目标数据库的各语音样本进行预处理,提取语谱图特征;(3)建立TSTRN;(4)对TSTRN进行双阶段训练,其中第一阶段将源数据库和目标数据库的语谱图特征同时输入,基于领域对齐任务,减少训练数据和测试数据的特征分布差异,第二阶段对于第一阶段训练的TSTRN基于语音情感识别任务进行微调,使得具有情感区分性;(5)对于待识别的语音样本,提取语谱图特征后输入到经过训练的TSTRN,得到情感分类结果。本发明效果更好。
-
公开(公告)号:CN115909451A
公开(公告)日:2023-04-04
申请号:CN202211439173.4
申请日:2022-11-17
Applicant: 东南大学
Abstract: 本发明公开了一种基于放大知识保持的微表情识别方法及装置,方法包括:获取宏、微表情图像序列样本并进行预处理;从宏表情图像序列样本中提取最后一帧、索引靠前帧,组成强弱表情对;构建强表情双流卷积神经网络,并提取强表情样本的静态空间特征和动态空间特征作为训练样本进行训练;以训练好的强表情网络为预训练网络,构建强‑弱表情双流卷积神经网络,并采用强弱表情对进行训练;以训练好的强‑弱表情网络为预训练网络,构建弱‑微表情双流卷积神经网络,并采用弱表情与微表情图像序列中间帧配对进行训练;将待识别微表情视频输入训练好的弱‑微表情双流卷积神经网络,识别出微表情类别。本发明准确率更高。
-
公开(公告)号:CN111126263B
公开(公告)日:2022-11-25
申请号:CN201911343069.3
申请日:2019-12-24
Applicant: 东南大学
Abstract: 本发明公开了一种基于双半球差异性模型的脑电情感识别方法及装置,方法包括:(1)获取一个脑电情感数据库,包括训练集和测试集;(2)建立脑电情感识别网络,所述脑电情感识别网络包括特征提取器、域判别器和情感分类器;(3)对所述脑电情感识别网络进行训练,训练时,将训练集和测试集中每一脑电情感数据作为一个样本,输入特征提取器,提取双半球特征,并将从训练集和测试集提取的每个双半球特征作为一个样本,输入域判别器,将从训练集提取的每个双半球特征作为一个样本,输入情感分类器;(4)提取待识别的脑电情感数据,将其作为一个测试集样本输入训练好的脑电情感识别网络,并按照步骤(3)对脑电情感识别网络调整,得到识别的情感类别。本发明准确率更高。
-
公开(公告)号:CN115035915A
公开(公告)日:2022-09-09
申请号:CN202210605389.7
申请日:2022-05-31
Applicant: 东南大学
IPC: G10L25/63 , G10L25/27 , G10L25/03 , G06F16/683
Abstract: 本发明公开了一种基于隐式对齐子空间学习的跨库语音情感识别方法及装置,方法包括:(1)获取两个语音情感数据库,分别作为训练数据库和测试数据库;(2)对训练数据库和测试数据库中的每个语音样本提取语音特征;(3)建立联合分布隐式对齐子空间学习模型(4)根据语音样本的语音特征对所述学习模型进行学习,得到语料不变投影矩阵U的最优值(5)对于待识别语音,按照步骤(2)得到语音特征,并采用学习到的得到对应的情感类别。本发明识别准确率更高。
-
-
-
-
-
-
-
-
-