-
公开(公告)号:CN112329634B
公开(公告)日:2024-04-02
申请号:CN202011227216.3
申请日:2020-11-05
Applicant: 华中师范大学
IPC: G06V40/20 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/084 , G06Q50/20
Abstract: 本发明为一种课堂行为识别方法、装置、电子设备及存储介质,包括:获取待识别目标的人体图像;采用第一预设网络模型提取所述人体图像的人体骨架图像;根据预先训练的目标神经网络模型对所述人体骨架图像进行识别,得到所述待识别目标的课堂行为类别。本发明能有效排除学生体态、穿着、背景等无关信息的干扰,突出关键有效信息,降低识别复杂度,具有良好的识别率与泛化能力。
-
公开(公告)号:CN108256469A
公开(公告)日:2018-07-06
申请号:CN201810039307.0
申请日:2018-01-16
Applicant: 华中师范大学
Abstract: 本发明实施例提供了一种脸部表情识别方法及装置,涉及脸部表情识别技术领域。所述方法包括获取待识别脸部表情图像序列的峰值帧图像;提取所述峰值帧图像的几何特征;提取所述峰值帧图像的Gabor特征;基于所述几何特征和所述Gabor特征,获得融合特征;以所述融合特征作为输入,训练预设的深度多核学习模型,获得训练后的所述深度多核学习模型输出的核函数;将所述核函数输入到预设的分类器中进行表情分类,获得识别结果。提高识别率,更高效。
-
公开(公告)号:CN109446980A
公开(公告)日:2019-03-08
申请号:CN201811251245.6
申请日:2018-10-25
Applicant: 华中师范大学
IPC: G06K9/00
Abstract: 本发明涉及图像处理技术领域,具体涉及一种表情识别方法及装置,该方法包括获取人脸图像,在人脸图像上标定预定数量的特征点得到特征图像,根据所述特征图像确定局部几何特征,同时对人脸图像提取全局纹理特征和深度特征,进而将局部几何特征、全局纹理特征以及深度特征进行级联融合得到融合特征,最后将融合特征输入分类器进行分类得到融合特征对应的表情。由此可见,本发明实施例提供的方案为对人脸图像通过提取局部几何特征以及全局特征(如纹理特征和深度特征),并对三种特征进行融合后进行表情识别,由于其获取了全面的表情特征,故其表情特征的识别准确率更高,更符合实际应用。
-
公开(公告)号:CN109034099A
公开(公告)日:2018-12-18
申请号:CN201810920958.0
申请日:2018-08-14
Applicant: 华中师范大学
IPC: G06K9/00
CPC classification number: G06K9/00302 , G06K9/00268 , G06K9/00288
Abstract: 本发明提供了一种表情识别方法及装置,其中,该方法包括:获取待测用户的人脸表情图像集合,人脸表情图像集合包括设定帧数的人脸表情图像;提取每帧人脸表情图像的面部特征点集;根据面部特征点集确定对应的人脸表情图像的几何特征组;将所有人脸表情图像的几何特征组与待测用户的中性人脸表情图像的几何特征组作差,确定人脸表情图像集合的几何特征集合;根据几何特征集合以及预先建立的面部表情识别模型,识别待测用户的表情类别。本发明实施例通过获取用户的动态人脸表情图像,能够更好地展示表情变化,提高了对用户表情类别的识别精确度。
-
公开(公告)号:CN109034099B
公开(公告)日:2021-07-13
申请号:CN201810920958.0
申请日:2018-08-14
Applicant: 华中师范大学
IPC: G06K9/00
Abstract: 本发明提供了一种表情识别方法及装置,其中,该方法包括:获取待测用户的人脸表情图像集合,人脸表情图像集合包括设定帧数的人脸表情图像;提取每帧人脸表情图像的面部特征点集;根据面部特征点集确定对应的人脸表情图像的几何特征组;将所有人脸表情图像的几何特征组与待测用户的中性人脸表情图像的几何特征组作差,确定人脸表情图像集合的几何特征集合;根据几何特征集合以及预先建立的面部表情识别模型,识别待测用户的表情类别。本发明实施例通过获取用户的动态人脸表情图像,能够更好地展示表情变化,提高了对用户表情类别的识别精确度。
-
公开(公告)号:CN112329634A
公开(公告)日:2021-02-05
申请号:CN202011227216.3
申请日:2020-11-05
Applicant: 华中师范大学
Abstract: 本发明为一种课堂行为识别方法、装置、电子设备及存储介质,包括:获取待识别目标的人体图像;采用第一预设网络模型提取所述人体图像的人体骨架图像;根据预先训练的目标神经网络模型对所述人体骨架图像进行识别,得到所述待识别目标的课堂行为类别。本发明能有效排除学生体态、穿着、背景等无关信息的干扰,突出关键有效信息,降低识别复杂度,具有良好的识别率与泛化能力。
-
公开(公告)号:CN109800309A
公开(公告)日:2019-05-24
申请号:CN201910069620.3
申请日:2019-01-24
Applicant: 华中师范大学
Abstract: 本发明提供一种课堂话语类型分类方法及装置,涉及教育教学技术领域。该方法包括:获取课堂中的音频数据,将音频数据转录为待分类的无标签文本数据,无标签文本数据包括多个按照最小单位划分的话语,获取训练好的预期LSTM分类模型,根据预设的标签类型、待分类的无标签文本数据以及训练好的预期LSTM分类模型,得到分类后的有标签文本数据,根据分类后的有标签文本数据,获取预设的标签类型所对应类型的话语集合,能够将课堂中讲述的一些话语转录为相应的文本数据之后,把每句话按照预设的标签类型进行自动分类,从而减少了人工分类时所用的时间和精力等,提高研究人员需要分析或研究课堂中的话语时的效率。
-
-
-
-
-
-