一种基于移动终端的新生儿疼痛评估方法

    公开(公告)号:CN108363969B

    公开(公告)日:2022-08-26

    申请号:CN201810105264.1

    申请日:2018-02-02

    Abstract: 本发明公开了一种基于移动终端的新生儿疼痛评估方法,该方法包括:(1)采集新生儿疼痛表情图像,将所述表情图像分类,将所述表情图像裁剪成a×a像素的彩色图像;(2)构建一个包含1个数据层、19个卷积层、1个池化层、1个全连接层和1个分类层的卷积神经网络;(3)将数据库分为训练集和验证集,对卷积神经网络进行训练,得到优化后的网络模型;(4)将训练好的网络模型移植到移动终端,生成新生儿疼痛评估应用程序;(5)开启所述新生儿疼痛评估应用程序,并将识别结果显示在移动终端上。本发明针对智能手机等移动终端的处理能力,优化设计了深度卷积神经网络的结构,采用深度学习方法来提取新生儿疼痛表情特征,分类识别准确率高。

    基于局部与整体特征自适应融合的表情识别方法及系统

    公开(公告)号:CN112784763B

    公开(公告)日:2022-07-29

    申请号:CN202110107709.1

    申请日:2021-01-27

    Abstract: 本发明公开了一种基于局部与整体特征自适应融合的表情识别方法及系统。该方法首先获取表情图像集,对表情图像集中的图像进行人脸检测、裁剪和对齐处理;然后构建一种表情识别模型,该模型包括数据处理模块、特征提取模块、特征融合模块和分类层,其中,特征融合模块使用注意力机制学习人脸整体图像及其多个局部区域图像特征的注意力权重,并基于注意力权重自适应选择重要特征进行加权融合;再使用表情图像集中的图像作为训练样本对构建的表情识别模型进行训练;最后利用训练好的表情识别模型对新输入的测试图像进行表情分类识别。本发明可自适应地融合来自整个人脸及未被遮挡的重要区域的表情特征,有效解决遮挡和姿态变化环境下的表情识别问题。

    一种用于多模态情感分类的决策层融合方法

    公开(公告)号:CN113326868B

    公开(公告)日:2022-07-15

    申请号:CN202110490342.6

    申请日:2021-05-06

    Abstract: 本发明公开了一种用于多模态情感分类的决策层融合方法,该方法包括:将多模态情感数据集中的样本分成训练集和测试集;分别构建各种模态的情感分类模型,使用训练集中对应模态的样本分别对各种模态的情感分类模型进行训练;使用训练好的各种模态的情感分类模型分别对测试集中对应模态的样本进行情感分类,统计分类结果,得到各种模态的情感分类混淆矩阵;使用训练好的各种模态的情感分类模型分别对被测样本的对应模态进行情感分类;利用分类混淆矩阵对被测样本的各种模态的情感分类结果进行决策层融合,得到被测样本的情感类别。本发明充分利用了不同模态信息差异性的先验知识以及模态之间的互补性,可以有效提升多模态情感分类的准确率和鲁棒性。

    一种用于多模态情感分类的决策层融合方法

    公开(公告)号:CN113326868A

    公开(公告)日:2021-08-31

    申请号:CN202110490342.6

    申请日:2021-05-06

    Abstract: 本发明公开了一种用于多模态情感分类的决策层融合方法,该方法包括:将多模态情感数据集中的样本分成训练集和测试集;分别构建各种模态的情感分类模型,使用训练集中对应模态的样本分别对各种模态的情感分类模型进行训练;使用训练好的各种模态的情感分类模型分别对测试集中对应模态的样本进行情感分类,统计分类结果,得到各种模态的情感分类混淆矩阵;使用训练好的各种模态的情感分类模型分别对被测样本的对应模态进行情感分类;利用分类混淆矩阵对被测样本的各种模态的情感分类结果进行决策层融合,得到被测样本的情感类别。本发明充分利用了不同模态信息差异性的先验知识以及模态之间的互补性,可以有效提升多模态情感分类的准确率和鲁棒性。

    一种由粗到精的新生儿面部检测方法与系统

    公开(公告)号:CN110309816B

    公开(公告)日:2021-06-11

    申请号:CN201910628182.X

    申请日:2019-07-12

    Abstract: 本发明公开了一种由粗到精的新生儿面部检测方法与系统。该方法包括以下步骤:建立新生儿面部图像样本集;构建一种包括特征提取、面部边框粗定位和面部边框精定位模块的适用于新生儿面部检测的深度卷积神经网络;用样本集里的样本训练所构建的深度卷积神经网络,得到新生儿面部检测模型;利用新生儿面部检测模型对新输入的测试图像进行新生儿面部检测。本发明针对新生儿面部特点,构建并训练一个深度卷积神经网络模型,提取新生儿面部不同尺度的特征图,并通过两次分类任务及级联的两次回归任务实现由粗定位到精定位的面部检测,可以有效提高新生儿面部检测精度,减少误检、漏检的概率。

    一种基于局部与全局注意力机制的表情识别方法及系统

    公开(公告)号:CN112784764A

    公开(公告)日:2021-05-11

    申请号:CN202110107862.4

    申请日:2021-01-27

    Abstract: 本发明公开了一种基于局部与全局注意力机制的表情识别方法及系统。该方法首先构建基于局部与全局注意力机制的神经网络模型,该模型由浅层特征提取模块、空间域局部与全局注意力模块、残差网络模块、多尺度特征提取模块、通道域局部与全局注意力模块、全连接层和分类层构成;然后使用人脸表情图像库中的样本图像对神经网络模型进行训练;最后将待测试的人脸图像输入到训练好的神经网络模型进行表情识别。本发明使用多尺度特征提取模块来提取人脸图像中不同尺度的纹理特征,以免丢失有鉴别力的表情特征;使用空间域和通道域局部与全局注意力模块强化对表情识别起关键作用的更具鉴别力的特征,可以有效提高表情识别的准确率和鲁棒性。

    一种基于3D卷积神经网络的双模态情感识别方法及系统

    公开(公告)号:CN108596039A

    公开(公告)日:2018-09-28

    申请号:CN201810267991.8

    申请日:2018-03-29

    Abstract: 本发明公开了一种基于3D卷积神经网络的双模态情感识别方法及系统。该方法首先分别构建用于表情情感识别和姿态情感识别两种3D卷积神经网络,并基于双模态情感视频库的训练集和验证集优化网络模型参数;然后基于双模态情感视频库的测试集分别对优化后的两种神经网络进行测试,得到表情情感识别混淆矩阵和姿态情感识别混淆矩阵;最后利用表情情感识别混淆矩阵和姿态情感识别混淆矩阵的先验知识,将对新输入的表情视频序列和姿态视频序列的两种模态的识别结果进行融合,得到双模态的情感分类结果。该方法采用3D卷积神经网络和双模态融合算法,避免了人工设计特征的主观性,克服了单模态情感识别的局限性,并能有效提高情感识别的准确性和鲁棒性。

    一种基于同步挤压短时傅里叶变换和BiGRU的心音分段方法及系统

    公开(公告)号:CN118245860A

    公开(公告)日:2024-06-25

    申请号:CN202410172812.8

    申请日:2024-02-07

    Inventor: 卢峻禾 卢官明

    Abstract: 本发明公开了一种基于同步挤压短时傅里叶变换和BiGRU的心音分段方法及系统,该方法包括:构建一个基于同步挤压短时傅里叶变换(SSTFT)和BiGRU的心音分段模型,该模型由SSTFT单元、BiGRU网络、Softmax分类器构成;使用心音数据集的样本对心音分段模型进行训练;将待分段的心音信号输入到训练好的心音分段模型进行状态分类,分成第一心音(S1)、第二心音(S2)、S1‑S2间期、S2‑S1间期4种状态类别;修正心音分段模型预测的错误状态类别;该系统包括:模型构建模块、模型训练模块、心音状态分类模块和状态修正模块。本发明对采用SSTFT和BiGRU网络提取的心音上下文时频特征进行状态分类,并根据心音状态之间的约束关系对错误类别进行修正,能够有效提升心音分段的定位精度和准确率。

    一种融合强化学习与递进学习的表情识别方法

    公开(公告)号:CN115063866A

    公开(公告)日:2022-09-16

    申请号:CN202210767298.3

    申请日:2022-06-30

    Abstract: 本发明公开了一种融合强化学习与递进学习的表情识别方法,该方法包含:构建包含样本筛选模块与表情分类模块的强化学习模型;将训练集样本划分为I组,使用一组样本对强化学习模型的每一轮训练中,表情分类模块输出预测类别概率,样本筛选模块将样本分为容易、较易、不易分类样本,按照递进学习思想使用容易、较易和不易分类样本对表情分类模块重新训练,根据重新训练前后表情分类模块输出的预测类别概率之差,基于强化学习方法调整样本筛选模块,进入下一轮的模型训练,经过I轮迭代训练得到训练好的表情分类模块;用训练好的表情分类模块对人脸图像进行表情识别。该方法能消除含噪声标签样本对模型训练的不利影响,提升表情识别准确性和鲁棒性。

    一种基于域自适应的微表情识别方法

    公开(公告)号:CN114998973A

    公开(公告)日:2022-09-02

    申请号:CN202210767992.5

    申请日:2022-06-30

    Abstract: 本发明公开了一种基于域自适应的微表情识别方法,该方法包括以下步骤:将普通表情域作为源域,微表情域作为目标域,对普通表情和微表情图像进行预处理,建立源域和目标域样本集;构建包含特征学习模块、分类器和域判别器的对抗网络;在每个批次对对抗网络的训练中,用源域样本训练特征学习模块、分类器和域判别器,用目标域样本训练特征学习模块和域判别器,通过对抗学习使得源域和目标域样本的特征分布差异最小化,实现域的自适应;利用训练好的特征学习模块和分类器构建微表情识别模型,对输入的图像进行微表情识别。本发明利用现有普通表情样本去辅助微表情识别,以解决微表情训练样本数量不足的问题,提高微表情识别的准确率和鲁棒性。

Patent Agency Ranking