-
公开(公告)号:CN114120456A
公开(公告)日:2022-03-01
申请号:CN202111361398.8
申请日:2021-11-17
Abstract: 本申请公开了一种学习专注力检测方法、计算机设备及可读介质,该方法包括:获取待检测对象的声纹信号及头部姿态图像;将声纹信号及头部姿态图像输入训练好的多模态融合模型中,提取待检测对象当前的声纹情绪特征以及头部姿态特征;多模态融合模型包括第一网络模型和第二网络模型;多模态融合模型将第一网络模型输出的声纹情绪特征及第二网络模型输出的头部姿态特征进行融合分类,得到待检测对象当前的声纹情绪状态和头部姿态角度;基于声纹情绪状态和头部姿态角度生成待检测对象当前的专注力检测结果;本发明实现声纹信号与头部姿态图像信息的互补,提高多人音频混叠背景下的学习专注力检测的准确性,为提高学生在线学习专注力提供客观支撑数据。
-
公开(公告)号:CN113704610A
公开(公告)日:2021-11-26
申请号:CN202110994227.2
申请日:2021-08-27
Applicant: 华中师范大学
Abstract: 本发明公开了一种基于学习成长数据的学习风格画像生成方法及系统。该方法包括步骤:收集学习成长数据,所述学习成长数据包括从多个数据源获取的用户属性数据和多维用户行为数据;将所述学习成长数据进行表征化处理,获得用户行为表征矩阵;将所述用户行为表征矩阵输入到预训练得到的用户特征提取模型中,所述用户特征提取模型基于神经网络,并用于输出用户行为特征向量矩阵;将所述用户行为特征向量矩阵与学习特征向量相乘,将相乘得到的矩阵作为用户学习风格画像。本发明可以利用多个数据源获取的多维用户行为数据,提升学习者画像的准确性和全面性,驱动教育决策科学化、学习方式个性化、教学管理人性化和评价体系全面化。
-
公开(公告)号:CN108664614A
公开(公告)日:2018-10-16
申请号:CN201810451369.2
申请日:2018-05-11
Applicant: 华中师范大学
Abstract: 本发明提出一种基于教育大数据的学习者模型动态构建方法,旨在提供一种学习者个性化学习概览的动态构建方法,实现对学习者的全面描述,促进对学习者的个性化指导。本发明包括以下步骤:首先,通过在线学习平台获取学习者的学习数据;其次,利用Experience API规范量化学习者的学习经历;再次,借助大数据分析和挖掘技术提取有效的学习者特征;最后,依据学习者的有效特征数据动态构建不同时空的个性化学习概览,从而实现学习者模型的动态构建。本发明基于教育大数据的学习者模型动态构建方法能够促进个性化学习的生成,有助于构建个性化的学习环境,对于学习兴趣挖掘、知识盲点识别、就业指导、学习路径规划等领域具有实际的应用价值。
-
公开(公告)号:CN107391586A
公开(公告)日:2017-11-24
申请号:CN201710488402.4
申请日:2017-06-23
Applicant: 华中师范大学
CPC classification number: G06F3/1431 , G06F16/4393 , G09B5/02
Abstract: 本发明公开了一种基于知识分类的多屏知识可视化方法,包括以下步骤:1)利用基于机器学习中逻辑回归的分类方法建立的逻辑回归分类器,将知识分为概念型知识、过程型知识和应用型知识三类;2)知识可视化:利用对应的可视化工具对知识进行可视化操作,制作成不同类型的可视化图像;3)对可视化后的知识,结合相应的文字说明,使用多屏技术同时显示可视化图像和文字信息。发明基于知识可视化的方法,提出了对可视化知识进行分类的观点,并结合多屏教学系统进行展示,同时以视觉形式和文字形式呈现信息,让学习者通过“双重编码”加工信息,增强对知识的理解和记忆,促进知识可视化技术在教师教学、知识传递、思维启发等方面的应用。
-
公开(公告)号:CN105868317A
公开(公告)日:2016-08-17
申请号:CN201610179836.1
申请日:2016-03-25
Applicant: 华中师范大学
CPC classification number: G06F17/30867 , G06K9/6201
Abstract: 本发明公开了一种数字教育资源推荐方法,其特征在于,包括以下步骤:(1)提取教育资源的文本信息;(2)将文本信息数字化处理,得到文本数字矩阵;(3)将文本数字矩阵输入预训练得到的资源特征识别器,资源特征识别器输出教育资源特征向量;(4)将教育资源特征向量与用户特征向量相乘,得到学生对教育资源的兴趣度。本发明从资源文本信息中提取教育资源特征,并结合学生特征判定学生对资源的兴趣度,任何只要有部分文字说明的资源均可适用该方法,适用面广,推荐满意度高。
-
公开(公告)号:CN114332911B
公开(公告)日:2025-03-21
申请号:CN202111384358.5
申请日:2021-11-18
IPC: G06V40/10 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/082 , G06N3/084 , G06Q50/20
Abstract: 本申请公开了一种头部姿态检测方法、装置及计算机设备,该方法包括获取待检测对象活动过程中的事件时序信号和RGB视频数据;分别从事件时序信号和RGB视频数据中筛选出待检测对象的头部姿态变化时刻的事件数据流和关键RGB视频流并进行分帧处理,得到事件图像序列以及关键RGB图像序列;将事件图像序列以及关键RGB图像序列输出训练好的融合模型中,分别提取出事件模态特征和图像模态特征并进行融合,得到待检测对象的头部姿态特征图像;根据头部姿态特征图像预测待检测对象的头部姿态角度;本发明利用可见光‑事件双模态图像进行头部姿态估计,能有效筛选捕捉头部姿态变化时刻,在光照情况不理想、存在部分遮挡等情况下也可以做到准确估计。
-
公开(公告)号:CN119541024A
公开(公告)日:2025-02-28
申请号:CN202411693479.1
申请日:2024-11-25
Applicant: 华中师范大学
IPC: G06V40/16 , G06V40/18 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本申请实施例公开了一种基于元空间自反馈学习的凝视图像标记方法,涉及图像处理技术领域,该方法包括:获取目标学习者的人脸图像序列,提取得到每个图像帧对应的凝视特征,将凝视特征输入训练好的拟态图像生成模型中,通过拟态图像生成模型结合带凝视方向标签的预设图像生成拟态图像;对拟态图像进行特征提取得到拟态凝视特征,对拟态凝视特征和凝视特征进行特征拼接,输出拼接后的凝视特征,计算得到目标学习者的凝视方向,并得到凝视标记图像。本申请实施例可以批量的对大量图像数据分别标记凝视方向,可以得出学习者学习过程中注意力状态,通过不同时间下注意力的转移状态,有利于教师或授课者给予及时的干预,保证学习者学习效率高效性。
-
公开(公告)号:CN115050072B
公开(公告)日:2025-01-24
申请号:CN202210701886.7
申请日:2022-06-21
Abstract: 本发明公开了一种基于多数据流的抬头状态数据获取方法,该方法通过安装在教室中的三目摄像机(三维激光扫描仪、RGB相机和长波红外相机)采集视频信息,获取视频中的一部分帧作为头部姿态估计的数据集;对3D点云数据进行预处理,同时将RGB图像和红外线图像融合在一起;使用单阶段目标检测算法对图像中的人脸进行目标检测和裁剪;将裁剪过的图像数据输入到训练好的头部姿态识别模型,获取每个学生的头部姿态偏转数据;统计某一段时间内的学生抬头率和各个学生的抬头时长,并转换成可视化数据,反馈给教师,帮助教师即时调整教学策略和有针对性地因材施教,从而能够提高教学质量和效果。
-
公开(公告)号:CN119181456A
公开(公告)日:2024-12-24
申请号:CN202411069571.0
申请日:2024-08-06
IPC: G16H10/60 , G16H20/70 , G06V40/16 , G06F18/213 , G06F18/22 , G06F18/241 , G06F18/25
Abstract: 本发明提供一种基于情绪推理范式的心理健康数据获取方法及系统,涉及人工智能技术领域。方法包括:获取待测者的面部表情数据、人体姿态数据和生理信号数据进行预处理,得到多模态数据;对多模态数据进行标记得到构造因子token;将构造因子token与情绪推理范式数据库中的样本因子token进行匹配;若匹配成功,则从情绪推理范式数据库中获取与匹配成功的样本因子token所对应的心理健康数据;若匹配不成功,则将多模态数据进行特征提取,并构建交叉模态对,对缺失的模态进行模态修复,得到待测者的心理健康量化矩阵;进而得到转换函数,将转换函数计算的结果作为待测者的心理健康数据。本发明解决了目前心理健康数据获取不准确、不及时的问题。
-
公开(公告)号:CN119151742A
公开(公告)日:2024-12-17
申请号:CN202411199955.4
申请日:2024-08-29
Applicant: 华中师范大学
IPC: G06Q50/20 , G06V40/16 , G06V40/18 , G06V10/82 , G06N3/0455 , G06N3/0464
Abstract: 本申请公开了一种基于内隐参数建模的教学投入度评测方法,涉及信息化教育技术领域,包括:获取智慧教室环境下采集到的教学行为资源,对教学行为资源进行预处理,转化为教学者的面部图像和眼部图像;将预处理后的面部图像和眼部图像输入到预先训练的网络模型中得到教学者在教学场景下的面部表情和视线方向;根据不同时刻教学过程中教学者的面部表情及视线方向分别获取教学者的情感特征和注意力特征,并采用情感特征和注意力特征作为内隐状态指标得到教学投入度评测结果。其可以对教师的教学行为进行多维度的监测和评估,以提高教师教学投入度评估的准确性和实时性,从而提供个性化的反馈和改进建议,帮助教师提升专业素养和教学能力。
-
-
-
-
-
-
-
-
-