一种基于视频的课堂认知情感识别与演化分析方法和系统

    公开(公告)号:CN117523627A

    公开(公告)日:2024-02-06

    申请号:CN202311296892.X

    申请日:2023-10-08

    Abstract: 本发明公开了一种基于视频的课堂认知情感识别与演化分析方法和系统,首先构建基于面部表情的课堂认知情感数据库,并进一步获得面部情感标注数据集;其次,采用深度学习方法,通过两阶段实现学生课堂认知情感识别,提出基于面部检测的Yolov7模型,基于面部表情等的EfficientNet模型;同时,基于认知情感识别结果计算时序性认知情感密度;最后根据情感密度绘制情感动态演化曲线,实现基于视频的课堂认知情感识别与演化分析,满足实际应用中多层次、多阶段的学习投入感知需求。

    基于局部相关熵矩阵的高光谱图像分类方法和系统

    公开(公告)号:CN113837258A

    公开(公告)日:2021-12-24

    申请号:CN202111091146.8

    申请日:2021-09-17

    Abstract: 本发明提供一种基于局部相关熵矩阵的高光谱图像分类方法和系统,首先,对高光谱图像数据进行降维处理,去除噪声并减小计算量,然后通过边界复制的方式对降维后的图像进行边界填充处理;其次,针对图像中的每一个像素,构建局部相关熵矩阵,抽取高光谱图像的局部特征;最后,将获得的局部相关熵矩阵作为特征输入到支持向量机中进行分类,得到每个像素的类别标签。本发明构建的局部相关熵矩阵充分利用了高光谱数据的“空谱合一”特性;利用本发明的方法,可以获取非线性的空谱特征;由于本发明属于手工设计特征方法,因此不需要大量的训练样本学习特征,具有较小的样本复杂度,更适合实际应用。

    一种基于深度学习的在线学习投入度识别方法及系统

    公开(公告)号:CN113688789A

    公开(公告)日:2021-11-23

    申请号:CN202111091047.X

    申请日:2021-09-17

    Abstract: 本发明设计了一种基于深度学习的在线学习投入度识别方法及系统,首先为了保证图像不受无关背景的影响,本发明通过YOLOv4进行学生人脸检测;其次针对VGG16网络参数量庞大、训练耗时等问题,提出了一种改进的VGG16模型,同时,在模型训练过程中,采用深度确定性信息瓶颈方法DIB弥补传统损失函数的不足,以获取较为紧致的特征表达,减少泛化误差,改善模型的通用性和稳定性,实现复杂在线学习场景下的学习投入度精准识别;最后通过与传统机器学习和其它深度学习等多种方法比较和分析,验证了本发明方法的有效性。

    知识认知结构分析方法、系统、计算机设备、介质、终端

    公开(公告)号:CN113591988A

    公开(公告)日:2021-11-02

    申请号:CN202110874755.4

    申请日:2021-07-30

    Abstract: 本发明属于个性化学习技术领域,公开了一种知识认知结构分析方法、系统、计算机设备、介质、终端,以学习者的学习交互序列为基础,得到联合先验特征;设计分层卷积神经网络对学习者学习状态进行空间分析,提取包含学习者个性化学习能力的空间特征;输出学习者在给定异构特征下对练习的反应情况,构建学习过程中影响学习者知识认知结构及表现的学习者时空融合特征;引入双向门循环单元,构建基于长时间依赖和融合时空特征的知识认知结构分析模型去动态诊断学习者的知识认知结构,预测学习者的学习表现。本发明有利于提高知识认知结构分析模型在预测学习者在特定资源下的学习表现方面的预测精度,对个性化教学的发展具有一定的借鉴意义。

    基于跨连接多特征融合卷积神经网络的面部表情识别方法

    公开(公告)号:CN112036288A

    公开(公告)日:2020-12-04

    申请号:CN202010876454.0

    申请日:2020-08-27

    Abstract: 本发明公开一种基于跨连接多特征融合卷积神经网络的面部表情识别方法,包括如下步骤:首先,进行人脸检测、数据预处理,减少背景信息干扰;然后,搭建一个跨连接多特征融合卷积神经网络自动提取丰富有效的面部表情特征,将网络的高低层次特征进行融合;最后,利用softmax进行面部表情分类。本发明将面部表情图像的高层次语义特征和低层次特征进行融合,充分利用每个隐藏层所学习到的特征信息,来提取更加充分、更为细致的表情特征,解决表情识别效果欠佳、鲁棒性差的问题。

    一种复杂环境下语音特征映射方法

    公开(公告)号:CN106782520B

    公开(公告)日:2019-11-26

    申请号:CN201710151497.0

    申请日:2017-03-14

    Abstract: 本发明提供了一种复杂环境下语音特征映射方法,首先提取干净环境下的语音信号的特征;然后提取复杂环境下的语音信号的特征;接着利用特征映射方法对复杂环境下的语音信号进行特征映射,使得到的映射特征可近似视为干净环境下的语音信号特征;最后与已经训练完毕的干净环境下的语音信号模型进行模式匹配和识别。本发明利用特征映射函数对复杂环境下的语音信号进行映射,使得到的特征可以近似视为干净环境下的语音信号特征,通过映射函数的作用可使复杂环境下的语音特征的纯净度得到大幅度提升从而提升语音识别的准确度,提高语音识别系统的鲁棒性。

    基于深度数据的手部姿势估计和追踪方法

    公开(公告)号:CN110286749A

    公开(公告)日:2019-09-27

    申请号:CN201910447174.5

    申请日:2019-05-27

    Abstract: 本发明公开了一种基于深度数据的手部姿势估计与追踪方法,通过深度传感器得到的手部深度图像利用变分自动编码器(VAE)与生成对抗网络(GAN)结合的半监督手部姿势估计方法得到手部参数估计,然后利用基于符号距离函数(SDF)的手势跟踪方法得到手部动作参数化时间序列数据。在实际应用中本发明计算效率高,姿势估计的实时性强。可以在少量标记样本和大量非标记样本约束下得到精度较高的手势估计结果和鲁棒性较好的手部快速跟踪并且可以节约计算资源和时间。

    一种基于ENF通用背景模型的数字音频篡改盲检测方法

    公开(公告)号:CN108766465A

    公开(公告)日:2018-11-06

    申请号:CN201810572178.1

    申请日:2018-06-06

    Abstract: 本发明属于音频信号处理领域,公开了一种基于ENF通用背景模型的数字音频篡改盲检测方法及系统,对大量的原始语音信号进行信号预处理,得到信号中包含的电网频率ENF成分;提取ENF信号的相位谱波动特征,相位谱和频率谱拟合参数特征,进行ENF通用背景模型训练;对已知ENF‑UBM进行自适应,得到原始信号的ENF模型;经过评分系统的处理,量化模型匹配度为分数标量;在监督学习条件下,绘制出ROC曲线,找到EER;根据EER的值计算正反例的分界值。本发明建立了原始语音信号ENF的通用背景模型,经过自适应过滤掉了大量与篡改特性无关的特征,并且其中的自适应部分还可目标数据库自行调整,具有较好的鲁棒性。

Patent Agency Ranking