-
公开(公告)号:CN118051884B
公开(公告)日:2024-09-20
申请号:CN202410289781.4
申请日:2024-03-14
Applicant: 华中师范大学
Abstract: 本发明提供一种基于深度学习和符号回归的导学策略生成方法及系统,所述方法包括:获取当前学习者在学习平台上的训练日志数据;将训练日志数据输入至预先建立的深度回归模型中,输出当前学习者的训练日志数据的关键特征和与关键特征对应的知识点掌握度;利用符号回归算法将当前学习者的关键特征和知识点掌握度表示为符号化方程,并将符号化方程进行整合,得到符号化模型,以生成当前学习者的导学策略。本发明利用神经网络模型和符号回归算法从复杂的训练日志数据中提取关键特征并将其转化为符号形式,将导学策略的生成过程进行可视化,不仅可以更好的分析导学策略生成过程,而且可以为学习者生成更合适、更个性化的导学策略。
-
公开(公告)号:CN117236445A
公开(公告)日:2023-12-15
申请号:CN202311231385.8
申请日:2023-09-21
Applicant: 华中师范大学
IPC: G06N5/04 , G06N3/084 , G06N3/0442
Abstract: 本发明提供了一种面向深度知识追踪的全局最优的因果解释方法及系统,包括:构建因果归因度量框架,以确定知识追踪模型的输入序列与待预测题目信息之间的因果关联,对知识追踪模型的输出结果进行解释;顺序遍历每个答题交互对并将其输入到策略网络中以生成动作分布概率进行抽样决策,将决策指示保留的答题交互对加入候选解释子序列;确定每个答题交互对的奖励值,之后基于候选解释子序列中每个答题交互对的奖励确定候选解释子序列的折扣回报;对奖励值和折扣回报去绝对值,之后对策略网络进行反向传播更新梯度,以便策略网络顺序遍历全部输入序列中的答题交互对后更新候选解释子序列,并将最后得到的候选解释子序列作为输出结果的解释子序列。
-
公开(公告)号:CN112256858B
公开(公告)日:2022-02-18
申请号:CN202011071060.4
申请日:2020-10-09
Applicant: 华中师范大学
IPC: G06F16/335 , G06F16/338 , G06K9/62 , G06N3/04
Abstract: 本发明公开了一种融合问题模式和答题结果的双卷积知识追踪方法及系统。该方法包括步骤:获取答题者的历史答题数据集;从历史答题数据集提取每个答题者的题目序列、答题结果序列和技能序列;将题目序列和技能序列进行拼接后输入到第一一维卷积神经网络,提取问题模式特征数据;将答题结果序列输入到第二一维卷积神经网络,提取答题结果特征数据;将问题模式特征数据和答题结果特征数据进行拼接后输入到全连接层网络,输出答题者答题行为预测结果数据。本发明通过建模提取问题模式特征数据和答题结果特征数据,融合这两个特征进行知识追踪,可以提升预测精确度。
-
公开(公告)号:CN118709774B
公开(公告)日:2025-03-21
申请号:CN202410377882.7
申请日:2024-03-29
Applicant: 华中师范大学
Abstract: 本发明提供一种基于多目标遗传算法的反事实解释生成方法及系统,从知识追踪数据集中获取学习者的原始实例;获取待添加题目的个数长度并随机生成多种长度编码;从知识追踪数据集中获取待添加题目并通过待解释的深度知识追踪模型得到对应的答案值,形成待添加答题交互对;基于长度编码、待添加答题交互对和原始实例,得到反事实实例;重复获取不同待添加答题交互对得到不同的反事实实例,生成反事实实例种群并对其进行筛选,得到最优反事实实例;基于最优反事实实例实现对深度知识追踪模型的解释。本发明为深度知识追踪模型提供了一种基于因果推断理论下的事后解释策略,提出了适用于知识追踪问题情境的辅导式反事实解释思路和对应方法。
-
公开(公告)号:CN116776992A
公开(公告)日:2023-09-19
申请号:CN202310697419.6
申请日:2023-06-12
Applicant: 华中师范大学
Abstract: 本发明提供一种基于遗传算法的深度知识追踪因果解释方法及设备,包括:构建因果归因度量框架。基因编码操作,将深度知识追踪的可解释问题转化为最优子列搜索问题以供遗传算法求解;初始化种群操作;普适度评估操作,将编码后的种群进行普适度的评估以生成后代及其对应的个体因果效应值并存储至经验矩阵中;个体选择操作,引入惩罚项以生成更为稀疏的后;自适应交叉操作;基于当前迭代次数、基础所处位置以及经验矩阵的因果关联值以指导后代完成自适应变异操作;对输出最终个体进行解码操作可解释子序列及因果效应值。本发明结合因果框架,采用遗传算法这种开箱即用的启发式算法以实现具有可读性、高效性、灵活性以及忠实性的知识追踪事后可解释。
-
公开(公告)号:CN110334610A
公开(公告)日:2019-10-15
申请号:CN201910516795.4
申请日:2019-06-14
Applicant: 华中师范大学
Abstract: 本发明公开了一种基于计算机视觉的多维度课堂量化系统及方法,该系统包括:数据采集模块,用于实时采集课堂上课的学生正面视频,以及教师授课的视频;数据实时处理模块,用于实现教师授课行为检测与识别、学生上课学习行为的检测与识别;数据可视化展示模块,用于从四个角度量化课堂并可视化展示,从而构建教师和学生双向维度的新型评价系统来量化课堂;数据存储模块,包括整堂课的原始视频数据保留、学生异常行为截帧保留、课堂评价报告生成,从原始视频到处理过程到处理结果三个部分存储数据。本发明能自动、智能地评价课堂,方便教师课后参考课堂教学过程,根据量化的学生行为结果反馈教学质量从而针对性地改善教学效果,促进学生学习进步。
-
公开(公告)号:CN118051884A
公开(公告)日:2024-05-17
申请号:CN202410289781.4
申请日:2024-03-14
Applicant: 华中师范大学
Abstract: 本发明提供一种基于深度学习和符号回归的导学策略生成方法及系统,所述方法包括:获取当前学习者在学习平台上的训练日志数据;将训练日志数据输入至预先建立的深度回归模型中,输出当前学习者的训练日志数据的关键特征和与关键特征对应的知识点掌握度;利用符号回归算法将当前学习者的关键特征和知识点掌握度表示为符号化方程,并将符号化方程进行整合,得到符号化模型,以生成当前学习者的导学策略。本发明利用神经网络模型和符号回归算法从复杂的训练日志数据中提取关键特征并将其转化为符号形式,将导学策略的生成过程进行可视化,不仅可以更好的分析导学策略生成过程,而且可以为学习者生成更合适、更个性化的导学策略。
-
公开(公告)号:CN112182308B
公开(公告)日:2023-03-24
申请号:CN202011056680.0
申请日:2020-09-29
Applicant: 华中师范大学
IPC: G06F16/901 , G06F16/903 , G06F17/16 , G06F18/214 , G06N3/0464
Abstract: 本发明公开了一种基于多热编码的多特征融合深度知识追踪方法及系统。该方法包括步骤:获取学生的答题数据集;提取问题编号特征p、技能编号特征s、答题表现特征c、尝试次数特征att、首次操作特征act、学生首次反应时间特征frt;将提取的6个特征转换为分类变量;将问题编号特征p和技能编号特征s进行多热编码,获得多热技能编码Multi(multi_s),将其他特征进行独热编码,获得独热编码O,将多热技能编码Multi(multi_s)和独热编码O进行拼接及降维处理后输入到深度知识追踪模型进行知识追踪。本发明可以提高数据集的数据利用率,并且实现多技能的预测。
-
公开(公告)号:CN112528221A
公开(公告)日:2021-03-19
申请号:CN202011405284.4
申请日:2020-12-05
Applicant: 华中师范大学
Abstract: 本发明公开了一种基于连续矩阵分解的知识与能力二元追踪方法。该方法包括基于历史学习行为构建训练集,确定训练集的第一似然函数以及第一对数似然函数;根据第一对数似然函数确定知识模型参数,基于知识模型参数构建知识模型;基于输出数据确定待构建的联合模型的第二似然函数,根据所述第二似然函数确定能力模型的目标函数;基于所述目标函数确定能力模型参数,基于所述能力模型参数构建能力模型;联合所述知识模型与所述能力模型,得到所述联合模型,所述联合模型为加性模型或乘性模型。本发明实现了在连续矩阵分解模型的基础上构造隐含能力模型,并通过提升算法对两部分模型进行融合与训练,相较于传统模型具有更高的可解释性和模型准确性。
-
公开(公告)号:CN111345800A
公开(公告)日:2020-06-30
申请号:CN202010182325.1
申请日:2020-03-16
Applicant: 华中师范大学
Abstract: 本发明公开了一种MOOC环境下的学习注意力检测方法及系统,其通过获取多个PPG信号样本序列,获取与每个PPG信号样本序列一一对应的输入特征矩阵和输出特征矩阵;利用多个PPG信号样本序列的输入特征矩阵和输出特征矩阵构建随机森林决策树的样本集;利用样本集进行机器学习得到训练好的决策树模型;获取与待测学习者的PPG信号序列对应的输入特征矩阵并输入所述训练好的随机森林决策树模型,使得训练好的随机森林决策树模型通过投票得到待测学习者的注意力测评结果,从而解决当前MOOC课堂无法确定学习者的学习效果的技术问题。
-
-
-
-
-
-
-
-
-