一种表情识别方法、装置、存储介质及电子设备

    公开(公告)号:CN116343314A

    公开(公告)日:2023-06-27

    申请号:CN202310623737.8

    申请日:2023-05-30

    Inventor: 李太豪 刘昱龙

    Abstract: 本说明书公开了一种表情识别方法、装置、存储介质及电子设备,本说明书实施例在对采集的视频进行人脸检测得到各人脸图像之后,通过情绪检测模型确定出各人脸图像的情绪检测结果。情绪检测结果用于表示人脸情绪起伏程度。然后,根据各人脸图像的情绪检测结果,从预先对各人脸图像进行分组所得到的各组合中选择出目标组合。将目标组合中的人脸图像输入到表情识别模型中以输出表情类别,并基于输出的表情类别,确定出最终表情类别。在此方法中,通过情绪检测模型从视频中筛选出人脸情绪起伏程度最大的关键视频段,并通过表情识别模型只对关键视频段中人脸的表情进行识别,无需对视频中的其他视频段进行人脸表情识别,从而提高表情识别的准确性。

    一种融合情感编码的音频驱动人脸动画生成方法及系统

    公开(公告)号:CN113378806B

    公开(公告)日:2021-12-14

    申请号:CN202110934743.6

    申请日:2021-08-16

    Abstract: 本发明属于人工智能领域,涉及一种融合情感编码的音频驱动人脸动画生成方法及系统,该方法为:首先对采集的音频信号进行预处理,提取MFCC特征后输入语音识别模块,进一步提取音频特征,同时将MFCC特征输入语音情感识别模块,得到情感类别并进行one‑hot编码,然后将音频特征和情感的one‑hot编码向量进行连接,输入表情识别模块得到基于3DMM模型的表情系数,最后将表情系数与人脸模板输入人脸动画生成模块,得到带表情的3D人脸动画。本发明方法计算量小,训练稳定,流程简单,成本低廉,能够极大的降低电影制作周期和成本,且充分考虑了语音传达的情感状态,对在网络中输入了情感编码,使得生成的人脸动画更加生动形象,能够给用户带来更优质的体验。

    一种基于多特征融合的视频行为识别方法

    公开(公告)号:CN113343950B

    公开(公告)日:2021-11-16

    申请号:CN202110891347.X

    申请日:2021-08-04

    Abstract: 本发明属于图像识别技术领域,涉及一种基于多特征融合的视频行为识别方法,通过将采集的视频信息从多个视角进行处理,对视频信息进行图像帧采样,进行人物的骨骼点信息提取,获得视频中人物行为的关键点热度图信息,人物的前景语义分割信息,并与RGB信息进行融合,从而提高视频行为识别的准确率。本发明同端到端的处理RGB视频信息进行行为识别的方法比较,通过提取的骨骼点信息可以更多的关注人物的动作信息,通过语义分割网络,获取场景中的前景信息,屏蔽无关的背景干扰,通过这三者的融合进行特征的互补,提高行为识别的准确率。

    一种基于多特征融合的视频行为识别方法

    公开(公告)号:CN113343950A

    公开(公告)日:2021-09-03

    申请号:CN202110891347.X

    申请日:2021-08-04

    Abstract: 本发明属于图像识别技术领域,涉及一种基于多特征融合的视频行为识别方法,通过将采集的视频信息从多个视角进行处理,对视频信息进行图像帧采样,进行人物的骨骼点信息提取,获得视频中人物行为的关键点热度图信息,人物的前景语义分割信息,并与RGB信息进行融合,从而提高视频行为识别的准确率。本发明同端到端的处理RGB视频信息进行行为识别的方法比较,通过提取的骨骼点信息可以更多的关注人物的动作信息,通过语义分割网络,获取场景中的前景信息,屏蔽无关的背景干扰,通过这三者的融合进行特征的互补,提高行为识别的准确率。

    一种视频多目标人脸表情识别方法和系统

    公开(公告)号:CN112990119A

    公开(公告)日:2021-06-18

    申请号:CN202110446571.8

    申请日:2021-04-25

    Abstract: 本发明属于人工智能领域,具体涉及一种视频多目标人脸表情识别方法和系统,该方法包括如下步骤:S1、抽取视频流中图像帧并提取人脸区域;S2、对视频流中的目标进行人脸跟踪;S3、对跟踪目标进行表情识别;S4、结合历史表情识别结果进行分析。本发明提供的方法,通过融合目标跟踪技术实现视频中多目标表情识别、利用前后帧结果加权提升动态表情识别结果的正确性和鲁棒性,防止视频表情识别结果产生的单帧抖动,同时本发明的视频表情识别系统具有表情分析结果及原始视频存储功能,能够帮助做出合理分析和建议,例如在校教育场景,智能驾驶辅助场景等。

    一种群体情感同质性的实时评估方法和评估系统

    公开(公告)号:CN112545519B

    公开(公告)日:2021-06-04

    申请号:CN202110196796.2

    申请日:2021-02-22

    Abstract: 本发明公开了一种群体情感同质性的实时评估方法和评估系统,被试者置身于相同的情感诱发环境中,利用联机多通道的脑电设备同时采集多人原始脑电信号,基于小波变换后得到的β频段每秒钟的平均瞬时相位和α频段每秒钟的能量值,实时计算时间同步程度和效价一致程度,并最终得到群体情感同质性指数,用于群体情感同质性的客观评估。本发明实现了多人同步实时测量和分析,能够过程化地对群体情感同质性进行动态监测,有效避免了传统测量手段事后采样、主观性强、社会期许偏差等问题,具有广泛的市场应用前景。

    一种群体情感同质性的实时评估方法和评估系统

    公开(公告)号:CN112545519A

    公开(公告)日:2021-03-26

    申请号:CN202110196796.2

    申请日:2021-02-22

    Abstract: 本发明公开了一种群体情感同质性的实时评估方法和评估系统,被试者置身于相同的情感诱发环境中,利用联机多通道的脑电设备同时采集多人原始脑电信号,基于小波变换后得到的β频段每秒钟的平均瞬时相位和α频段每秒钟的能量值,实时计算时间同步程度和效价一致程度,并最终得到群体情感同质性指数,用于群体情感同质性的客观评估。本发明实现了多人同步实时测量和分析,能够过程化地对群体情感同质性进行动态监测,有效避免了传统测量手段事后采样、主观性强、社会期许偏差等问题,具有广泛的市场应用前景。

    一种融合瞳孔数据和面部表情的实时情绪识别方法及系统

    公开(公告)号:CN113837153A

    公开(公告)日:2021-12-24

    申请号:CN202111410951.2

    申请日:2021-11-25

    Abstract: 本发明属于人工智能和认知科学的交叉领域,涉及一种融合瞳孔数据和面部表情的实时情绪识别方法及系统,在沉浸式VR环境下利用HTC Vive Pro Eye虚拟现实头戴式设备和VR取像组件实时采集被试者瞳孔数据和人脸数据,提取人脸数据中的关键特征点,构造人脸几何结构特征向量,并融合瞳孔直径特征,采用支持向量机SVM分类器进行分类,从而在沉浸式环境中实时识别被试者情绪。本发明基于沉浸式VR头戴式设备进行实时人脸捕捉,同时融合瞳孔数据进行实时情绪识别,提高了情绪识别的准确率,能够在沉浸式虚拟现实环境中进行实时隐式测量,在情绪研究领域具有广泛的应用前景。

    一种视频多目标人脸表情识别方法和系统

    公开(公告)号:CN112990119B

    公开(公告)日:2021-09-10

    申请号:CN202110446571.8

    申请日:2021-04-25

    Abstract: 本发明属于人工智能领域,具体涉及一种视频多目标人脸表情识别方法和系统,该方法包括如下步骤:S1、抽取视频流中图像帧并提取人脸区域;S2、对视频流中的目标进行人脸跟踪;S3、对跟踪目标进行表情识别;S4、结合历史表情识别结果进行分析。本发明提供的方法,通过融合目标跟踪技术实现视频中多目标表情识别、利用前后帧结果加权提升动态表情识别结果的正确性和鲁棒性,防止视频表情识别结果产生的单帧抖动,同时本发明的视频表情识别系统具有表情分析结果及原始视频存储功能,能够帮助做出合理分析和建议,例如在校教育场景,智能驾驶辅助场景等。

    一种基于视频基础单元分析的复杂行为识别方法

    公开(公告)号:CN112990122B

    公开(公告)日:2021-08-17

    申请号:CN202110448783.X

    申请日:2021-04-25

    Abstract: 本发明公开了一种基于视频基础单元分析的复杂行为识别方法。该方法将视频的行为识别拆分为时序上的原子行为,空间上基于目标检测和场景识别提取视频中的物体和背景信息,并将提取的语义信息送入时序模型进行分析。该方法相比以往的视频行为识别,将视频在时间和空间上进行分解为基础任务进行检测和识别,可解释性更强。同时基于此方法,可以针对不同的任务情况,选择性的提取需要的基础单元信息,通过拆分的方法增强了复杂行为识别任务的灵活性。

Patent Agency Ranking