-
公开(公告)号:CN114461908B
公开(公告)日:2024-06-21
申请号:CN202210099175.7
申请日:2022-01-27
Applicant: 华中师范大学
IPC: G06F16/9535 , G06Q50/20 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于异质交互行为的数字教育资源匹配方法及系统。该方法包括步骤:获取数字教育资源数据,数字教育资源数据包含学习者对资源的偏好数据、资源属性数据、学习者对资源的评论数据,每个学习者有唯一的编号;根据偏好数据、资源属性数据构建异质图,对异质图进行特征提取获得每个资源的异质流特征向量,根据评论数据获取每个资源的文本特征向量;将同一个资源的异质流特征向量、文本特征向量进行拼接获得每个资源的特征向量;将待匹配的目标学习者编号及每个资源的特征向量输入到训练后的推荐模型中,输出被推荐的数字教育资源。本发明可以提升数字教育资源匹配的准确度,从而更好地提供个性化学习服务。
-
公开(公告)号:CN113704610B
公开(公告)日:2024-03-05
申请号:CN202110994227.2
申请日:2021-08-27
Applicant: 华中师范大学
IPC: G06F16/9535 , G06V40/16 , G06V10/774 , G06N3/0464 , G06N3/08 , G06Q50/20
Abstract: 本发明公开了一种基于学习成长数据的学习风格画像生成方法及系统。该方法包括步骤:收集学习成长数据,所述学习成长数据包括从多个数据源获取的用户属性数据和多维用户行为数据;将所述学习成长数据进行表征化处理,获得用户行为表征矩阵;将所述用户行为表征矩阵输入到预训练得到的用户特征提取模型中,所述用户特征提取模型基于神经网络,并用于输出用户行为特征向量矩阵;将所述用户行为特征向量矩阵与学习特征向量相乘,将相乘得到的矩阵作为用户学习风格画像。本发明可以利用多个数据源获取的多维用户行为数据,提升学习者画像的准确性和全面性,驱动教育决策科学化、学习方(56)对比文件Kun Liang.Online Behavior Analysis-Based Student Profile for Intelligent E-Learning.Journal of Electrical andComputer Engineering.2017,第2017卷1-8.彭利园.基于在线学习平台的资源画像及推荐研究方法——以云课堂为例.中国优秀硕士学位论文数据库 社会科学II辑.2021,(第002期),第4章第4.1节.师亚飞;彭红超;童名文.基于学习画像的精准个性化学习路径生成性推荐策略研究.中国电化教育.2019,(05),全文.
-
公开(公告)号:CN117033559A
公开(公告)日:2023-11-10
申请号:CN202311130601.X
申请日:2023-08-31
Applicant: 华中师范大学
IPC: G06F16/33 , G06N3/0442 , G06N3/0464 , G06N3/08 , G06Q50/20
Abstract: 本发明公开了一种基于跨领域的自适应习题适配方法,包括:分别获取学生在线学习系统中的至少两门不同学科的学习数据,其中一门作为源数据域,另一门作为目标数据域;选择所述源数据域中与所述目标数据域中相似的问题文本;根据选择出的所述源数据域中的问题文本和所述目标数据域中的问题文本构建知识状态评估模型;根据所述知识状态评估模型评估对应学生的知识状态,并根据所述知识状态获取对应的适配习题;根据所述适配习题得到的练习结果重复以上过程再次评估所述知识状态,以实现自适应学习的个性化习题适配。其可以基于少量学习数据准确获取学生知识状态,并根据学生的知识状态实现智能化习题适配,以提高学生学习和老师教学的效率。
-
公开(公告)号:CN116172556A
公开(公告)日:2023-05-30
申请号:CN202211596365.6
申请日:2022-12-12
Applicant: 华中师范大学
IPC: A61B5/16 , A61B5/00 , A61B5/0205 , A61B5/11 , G06V40/16 , G06V20/40 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0442 , G06N3/084
Abstract: 本申请公开了一种基于特征交互学习网络的学生心理状态检测方法,其包括:获取受试对象在观看多种具有单一情绪特征的测试视频时的面部表情视频数据和心率数据;对面部表情视频数据和心率数据进行特征提取,获得受试对象的面部表情情绪特征及心率特征;将面部表情情绪特征与心率特征进行融合,并基于融合结果进行情绪识别,分别得到每种样本视频对应的情绪类别;将每种测试视频对应的情绪特征标签与其情绪类别进行比对,结合各测试视频的比对结果以及预设的阈值条件生成受试对象的情绪检测结果。本发明将面部表情与心率信号融合进行情绪识别,提高了情绪识别与分类的准确性,为高校学生心理健康状态预判及情绪管理与干预治疗提供了科学依据与支撑。
-
公开(公告)号:CN115329959A
公开(公告)日:2022-11-11
申请号:CN202210845135.2
申请日:2022-07-19
Abstract: 本发明提供了一种基于双流知识嵌入网络的学习目标推荐方法,主要涉及智能人机交互技术领域,包括步骤:获取学习者答题序列及对应的知识概念,输出为Q矩阵;通过训练好的知识追踪模型获取知识概念在答题序列中的权重,预测学习者对下一答题序列的答题正确概率;输出最邻近关联知识概念的推荐概率值,按推荐概率值生成至少一个推荐学习目标;基于训练好的知识需求模型预测学习者对推荐学习目标的掌握情况,输出预测的答题正确概率,按预测的正确概率从高至低排列对应的推荐学习目标,生成推荐的学习路径;通过本发明提供的方法,有利于在提高最近邻学习目标适配个性化的同时减小所需成本,从而提高学习者的学习效率。
-
公开(公告)号:CN115050075A
公开(公告)日:2022-09-13
申请号:CN202210736803.8
申请日:2022-06-27
IPC: G06V40/16
Abstract: 本发明提供一种跨粒度交互学习的微表情图像标注方法及装置,涉及图像处理技术领域,包括步骤:获取待标注的微表情图像序列;获取预设数量的已标注的微表情图像,将已标注的微表情图像和待标注的微表情图像序列输入至预训练的特征提取器模型;标注待标注的每个微表情的类别;获取每种微表情类别对应的标准置信分数;获取已识别的微表情的置信分数并与对应类别的微表情的标准置信分数比较,输出大于等于标准置信分数的微表情;更新待标注的微表情图像序列,直至将所有的微表情完成标注后输出已标注的微表情图像集合。实现了教学场景下对学生微表情进行高效、准确的自动标注,避免了人工标注的主观性、采集的微表情的歧义性,节省大量的人力物力。
-
公开(公告)号:CN115050072A
公开(公告)日:2022-09-13
申请号:CN202210701886.7
申请日:2022-06-21
Abstract: 本发明公开了一种基于多数据流的抬头状态数据获取方法,该方法通过安装在教室中的三目摄像机(三维激光扫描仪、RGB相机和长波红外相机)采集视频信息,获取视频中的一部分帧作为头部姿态估计的数据集;对3D点云数据进行预处理,同时将RGB图像和红外线图像融合在一起;使用单阶段目标检测算法对图像中的人脸进行目标检测和裁剪;将裁剪过的图像数据输入到训练好的头部姿态识别模型,获取每个学生的头部姿态偏转数据;统计某一段时间内的学生抬头率和各个学生的抬头时长,并转换成可视化数据,反馈给教师,帮助教师即时调整教学策略和有针对性地因材施教,从而能够提高教学质量和效果。
-
公开(公告)号:CN114882570A
公开(公告)日:2022-08-09
申请号:CN202210604509.1
申请日:2022-05-31
Abstract: 本申请公开了一种远程考试异常状态预判方法、系统、设备及存储介质。该方法包括:分别获取远程考试系统中RGB摄像头及近红外摄像头采集的考生视频资源并按时间顺序进行分解,获得考生RGB多帧图像及近红外多帧图像;将预处理后的考生RGB多帧图像及近红外多帧图像分别输入到训练后的精细表情识别模型和面部远程血压识别模型中,分别获取考生在考场中的面部精细表情识别结果和血压识别结果;根据面部精细表情及血压识别结果进行考生异常状态判断及预警。本发明通过对远程考试中考生的精细表情及面部远程血压信号进行识别分析,可以实时准确地预判考生在考场中是否有异常状态倾向。
-
公开(公告)号:CN114332911A
公开(公告)日:2022-04-12
申请号:CN202111384358.5
申请日:2021-11-18
Abstract: 本申请公开了一种头部姿态检测方法、装置及计算机设备,该方法包括获取待检测对象活动过程中的事件时序信号和RGB视频数据;分别从事件时序信号和RGB视频数据中筛选出待检测对象的头部姿态变化时刻的事件数据流和关键RGB视频流并进行分帧处理,得到事件图像序列以及关键RGB图像序列;将事件图像序列以及关键RGB图像序列输出训练好的融合模型中,分别提取出事件模态特征和图像模态特征并进行融合,得到待检测对象的头部姿态特征图像;根据头部姿态特征图像预测待检测对象的头部姿态角度;本发明利用可见光‑事件双模态图像进行头部姿态估计,能有效筛选捕捉头部姿态变化时刻,在光照情况不理想、存在部分遮挡等情况下也可以做到准确估计。
-
公开(公告)号:CN114120456A
公开(公告)日:2022-03-01
申请号:CN202111361398.8
申请日:2021-11-17
Abstract: 本申请公开了一种学习专注力检测方法、计算机设备及可读介质,该方法包括:获取待检测对象的声纹信号及头部姿态图像;将声纹信号及头部姿态图像输入训练好的多模态融合模型中,提取待检测对象当前的声纹情绪特征以及头部姿态特征;多模态融合模型包括第一网络模型和第二网络模型;多模态融合模型将第一网络模型输出的声纹情绪特征及第二网络模型输出的头部姿态特征进行融合分类,得到待检测对象当前的声纹情绪状态和头部姿态角度;基于声纹情绪状态和头部姿态角度生成待检测对象当前的专注力检测结果;本发明实现声纹信号与头部姿态图像信息的互补,提高多人音频混叠背景下的学习专注力检测的准确性,为提高学生在线学习专注力提供客观支撑数据。
-
-
-
-
-
-
-
-
-