一种用于多模态情感分类的决策层融合方法

    公开(公告)号:CN113326868A

    公开(公告)日:2021-08-31

    申请号:CN202110490342.6

    申请日:2021-05-06

    Abstract: 本发明公开了一种用于多模态情感分类的决策层融合方法,该方法包括:将多模态情感数据集中的样本分成训练集和测试集;分别构建各种模态的情感分类模型,使用训练集中对应模态的样本分别对各种模态的情感分类模型进行训练;使用训练好的各种模态的情感分类模型分别对测试集中对应模态的样本进行情感分类,统计分类结果,得到各种模态的情感分类混淆矩阵;使用训练好的各种模态的情感分类模型分别对被测样本的对应模态进行情感分类;利用分类混淆矩阵对被测样本的各种模态的情感分类结果进行决策层融合,得到被测样本的情感类别。本发明充分利用了不同模态信息差异性的先验知识以及模态之间的互补性,可以有效提升多模态情感分类的准确率和鲁棒性。

    一种由粗到精的新生儿面部检测方法与系统

    公开(公告)号:CN110309816B

    公开(公告)日:2021-06-11

    申请号:CN201910628182.X

    申请日:2019-07-12

    Abstract: 本发明公开了一种由粗到精的新生儿面部检测方法与系统。该方法包括以下步骤:建立新生儿面部图像样本集;构建一种包括特征提取、面部边框粗定位和面部边框精定位模块的适用于新生儿面部检测的深度卷积神经网络;用样本集里的样本训练所构建的深度卷积神经网络,得到新生儿面部检测模型;利用新生儿面部检测模型对新输入的测试图像进行新生儿面部检测。本发明针对新生儿面部特点,构建并训练一个深度卷积神经网络模型,提取新生儿面部不同尺度的特征图,并通过两次分类任务及级联的两次回归任务实现由粗定位到精定位的面部检测,可以有效提高新生儿面部检测精度,减少误检、漏检的概率。

    一种基于局部与全局注意力机制的表情识别方法及系统

    公开(公告)号:CN112784764A

    公开(公告)日:2021-05-11

    申请号:CN202110107862.4

    申请日:2021-01-27

    Abstract: 本发明公开了一种基于局部与全局注意力机制的表情识别方法及系统。该方法首先构建基于局部与全局注意力机制的神经网络模型,该模型由浅层特征提取模块、空间域局部与全局注意力模块、残差网络模块、多尺度特征提取模块、通道域局部与全局注意力模块、全连接层和分类层构成;然后使用人脸表情图像库中的样本图像对神经网络模型进行训练;最后将待测试的人脸图像输入到训练好的神经网络模型进行表情识别。本发明使用多尺度特征提取模块来提取人脸图像中不同尺度的纹理特征,以免丢失有鉴别力的表情特征;使用空间域和通道域局部与全局注意力模块强化对表情识别起关键作用的更具鉴别力的特征,可以有效提高表情识别的准确率和鲁棒性。

    基于鉴别局部保持投影的多模态情感特征融合方法

    公开(公告)号:CN106096642B

    公开(公告)日:2020-11-13

    申请号:CN201610397708.4

    申请日:2016-06-07

    Abstract: 本发明公开了基于鉴别局部保持投影的多模态情感特征融合方法,该方法首先对多模态情感数据库中每种模态的样本数据提取情感特征,如语音特征、表情特征、姿态特征等,然后采用鉴别局部保持投影方法将各种模态的情感特征映射到统一的鉴别子空间中,最后将映射后的多组特征进行串联融合,得到融合的多模态情感特征。以融合的多模态情感特征作为输入的分类器能够有效地识别出生气、反感、害怕、高兴、悲伤和惊讶等基本情感,为开发人类情感分类识别系统以及人机交互的实现提供了一种新的方法和途径。

    一种基于3D卷积神经网络的双模态情感识别方法及系统

    公开(公告)号:CN108596039A

    公开(公告)日:2018-09-28

    申请号:CN201810267991.8

    申请日:2018-03-29

    Abstract: 本发明公开了一种基于3D卷积神经网络的双模态情感识别方法及系统。该方法首先分别构建用于表情情感识别和姿态情感识别两种3D卷积神经网络,并基于双模态情感视频库的训练集和验证集优化网络模型参数;然后基于双模态情感视频库的测试集分别对优化后的两种神经网络进行测试,得到表情情感识别混淆矩阵和姿态情感识别混淆矩阵;最后利用表情情感识别混淆矩阵和姿态情感识别混淆矩阵的先验知识,将对新输入的表情视频序列和姿态视频序列的两种模态的识别结果进行融合,得到双模态的情感分类结果。该方法采用3D卷积神经网络和双模态融合算法,避免了人工设计特征的主观性,克服了单模态情感识别的局限性,并能有效提高情感识别的准确性和鲁棒性。

    基于深度学习的人群高兴程度识别方法

    公开(公告)号:CN106803069A

    公开(公告)日:2017-06-06

    申请号:CN201611242470.4

    申请日:2016-12-29

    Abstract: 本发明公开了一种基于深度学习的人群高兴程度识别方法,首先将人工标注的单个人脸图像做分类和图像尺寸归一化处理,得到人脸高兴程度数据库和人脸遮挡程度数据库,再分别将它们分为训练集和验证集,用于训练卷积神经网络,然后利用训练好的网络模型对输入的一幅合影图像中的人脸进行高兴程度和遮挡程度的识别,最后采用人脸高兴程度加权的方式计算出图像中的人群高兴程度。采用深度学习对图像中的群体表情进行分析,相比于传统提取PHOG、Gabor特征的方法要更准确,为解决图像中的人群情感识别问题提拱了新的思路和途径。

    基于长短时间记忆网络和卷积神经网络的语音情感识别方法

    公开(公告)号:CN106782602A

    公开(公告)日:2017-05-31

    申请号:CN201611093447.3

    申请日:2016-12-01

    Abstract: 本发明公开了一种基于长短时间记忆网络和卷积神经网络的语音情感识别方法,该方法构建基于LSTM和CNN的语音情感识别系统,将语音序列作为系统的输入,采用反向传播算法对LSTM和CNN进行训练,优化网络的参数,得到优化后的网络模型;利用已经训练好的网络模型对新输入的语音序列进行情感分类,分为悲伤、高兴、厌恶、恐惧、惊吓、中性六种情感。该方法综合考虑了LSTM和CNN两种网络模型,避免了人工选择和提取特征的繁琐,提高了情感识别的准确率。

    一种基于多核学习的多模态情感识别方法

    公开(公告)号:CN106250855A

    公开(公告)日:2016-12-21

    申请号:CN201610627333.6

    申请日:2016-08-02

    CPC classification number: G06K9/00523 G06K9/00536 G06K9/6269

    Abstract: 本发明公开了一种基于多核学习的多模态情感识别方法,该方法首先对多模态情感数据库中每种模态的样本数据提取情感特征,如表情特征、语音特征和生理特征等,然后对每种模态分别构建多个不同的核矩阵,将不同模态对应的核矩阵组进行融合,得到融合的多模态情感特征,最后使用多核支持向量机作为分类器进行训练和识别,能够有效地识别出生气、恶心、害怕、高兴、悲伤和惊讶等基本情感。

    一种基于人类视觉系统特性的多尺度X线图像增强方法

    公开(公告)号:CN106097283A

    公开(公告)日:2016-11-09

    申请号:CN201610578378.9

    申请日:2016-07-20

    Inventor: 王天云 卢官明

    CPC classification number: G06T5/00 G06T5/50 G06T2207/10116 G06T2207/30068

    Abstract: 本发明公开了一种基于人类视觉系统特性的多尺度X线图像增强方法,包括:采集数字化X线图像,并进行归一化处理;进行伽马校正、色彩空间转换,得到XYZ色彩空间的图像,并进行硬拷贝的模拟;灰度处理,进行通道分解,得到视锥图像和视杆图像;利用拉普拉斯金字塔算法分别对图像进行多尺度分解;进行亮度和对比度适配;进行传感及门限处理;图像分别合并,并对合并后图像进行逆传感和逆增益处理,实现拉普拉斯金字塔的图像重建,得到重建图像;对重建图像归一化处理,并对归一化所得图像进行色彩空间转换和伽马校正,得到校正后的RGB色彩空间图像并输出。本发明能够有效地对X线图像进行对比度增强和细节增强,能够更好减弱噪声对X线图像的影响。

    基于鉴别局部保持投影的多模态情感特征融合方法

    公开(公告)号:CN106096642A

    公开(公告)日:2016-11-09

    申请号:CN201610397708.4

    申请日:2016-06-07

    CPC classification number: G06K9/629

    Abstract: 本发明公开了基于鉴别局部保持投影的多模态情感特征融合方法,该方法首先对多模态情感数据库中每种模态的样本数据提取情感特征,如语音特征、表情特征、姿态特征等,然后采用鉴别局部保持投影方法将各种模态的情感特征映射到统一的鉴别子空间中,最后将映射后的多组特征进行串联融合,得到融合的多模态情感特征。以融合的多模态情感特征作为输入的分类器能够有效地识别出生气、反感、害怕、高兴、悲伤和惊讶等基本情感,为开发人类情感分类识别系统以及人机交互的实现提供了一种新的方法和途径。

Patent Agency Ranking