-
公开(公告)号:CN112766513B
公开(公告)日:2024-05-07
申请号:CN202110130188.1
申请日:2021-01-29
Applicant: 华中师范大学
Abstract: 本发明公开了一种记忆协同的知识追踪方法及系统。该方法包括步骤:获取t时刻学习者回答的题目qt和答案rt;获取概念矩阵Mk和t时刻的概念掌握矩阵#imgabs0#其中#imgabs1#用于表示t时刻学习者对每个概念在感觉记忆阶段、工作记忆阶段和长时记忆阶段的记忆内容;获得题目qt与第i个概念的相关度wt(i);计算获得学习者对题目qt相关的概念的总体记忆程度kst;输出学习者回答题目qt的预测正确率prt以及预测相关度w′t。本发明既包括记忆内容的表示,又包括记忆阶段的表示,可以更准确地表示学习者的知识掌握状态,从而更准确地预测学习者未来表现。
-
公开(公告)号:CN112256858A
公开(公告)日:2021-01-22
申请号:CN202011071060.4
申请日:2020-10-09
Applicant: 华中师范大学
IPC: G06F16/335 , G06F16/338 , G06K9/62 , G06N3/04
Abstract: 本发明公开了一种融合问题模式和答题结果的双卷积知识追踪方法及系统。该方法包括步骤:获取答题者的历史答题数据集;从历史答题数据集提取每个答题者的题目序列、答题结果序列和技能序列;将题目序列和技能序列进行拼接后输入到第一一维卷积神经网络,提取问题模式特征数据;将答题结果序列输入到第二一维卷积神经网络,提取答题结果特征数据;将问题模式特征数据和答题结果特征数据进行拼接后输入到全连接层网络,输出答题者答题行为预测结果数据。本发明通过建模提取问题模式特征数据和答题结果特征数据,融合这两个特征进行知识追踪,可以提升预测精确度。
-
公开(公告)号:CN112182308A
公开(公告)日:2021-01-05
申请号:CN202011056680.0
申请日:2020-09-29
Applicant: 华中师范大学
IPC: G06F16/901 , G06F16/903 , G06F17/16 , G06K9/62 , G06N3/04
Abstract: 本发明公开了一种基于多热编码的多特征融合深度知识追踪方法及系统。该方法包括步骤:获取学生的答题数据集;提取问题编号特征p、技能编号特征s、答题表现特征c、尝试次数特征att、首次操作特征act、学生首次反应时间特征frt;将提取的6个特征转换为分类变量;将问题编号特征p和技能编号特征s进行多热编码,获得多热技能编码Multi(multi_s),将其他特征进行独热编码,获得独热编码O,将多热技能编码Multi(multi_s)和独热编码O进行拼接及降维处理后输入到深度知识追踪模型进行知识追踪。本发明可以提高数据集的数据利用率,并且实现多技能的预测。
-
公开(公告)号:CN110807469B
公开(公告)日:2020-09-11
申请号:CN201910889394.3
申请日:2019-09-19
Applicant: 华中师范大学
Abstract: 本发明公开了融合长短时记忆与贝叶斯网络的知识追踪方法与系统,其通过建立包括时间序列的认知数据集和长短期记忆神经网路,计算与当前时间序列对应的知识组件的贝叶斯知识追踪模型的参数组,从而利用贝叶斯知识追踪模型计算学习者对当前时间序列的题目的答题正确的概率预测值,通过对比认知数据集中当前时间序列的题目的答题正确与否的真实值,得到与当前时间序列对应的长短期记忆神经网络模型损失函数,从而得到权重参数矩阵的优化值和偏差参数矩阵的优化值;遍历认知数据集所有的时间序列,得到长短期记忆神经网络模型权重参数矩阵的优化值和偏差参数矩阵的最优值;从而实现学习者对待测试题目的认知状态的预测,依据学习者的认知状态的预测进行学习者的学习路径规划和/或知识图谱的构建。
-
公开(公告)号:CN110807469A
公开(公告)日:2020-02-18
申请号:CN201910889394.3
申请日:2019-09-19
Applicant: 华中师范大学
Abstract: 本发明公开了融合长短时记忆与贝叶斯网络的知识追踪方法与系统,其通过建立包括时间序列的认知数据集和长短期记忆神经网路,计算与当前时间序列对应的知识组件的贝叶斯知识追踪模型的参数组,从而利用贝叶斯知识追踪模型计算学习者对当前时间序列的题目的答题正确的概率预测值,通过对比认知数据集中当前时间序列的题目的答题正确与否的真实值,得到与当前时间序列对应的长短期记忆神经网络模型损失函数,从而得到权重参数矩阵的优化值和偏差参数矩阵的优化值;遍历认知数据集所有的时间序列,得到长短期记忆神经网络模型权重参数矩阵的优化值和偏差参数矩阵的最优值;从而实现学习者对待测试题目的认知状态的预测,依据学习者的认知状态的预测进行学习者的学习路径规划和/或知识图谱的构建。
-
公开(公告)号:CN105405143A
公开(公告)日:2016-03-16
申请号:CN201510779971.5
申请日:2015-11-13
Applicant: 华中师范大学
CPC classification number: G06K9/00355 , G06K9/4652 , G06K9/6226 , G06T2207/10024 , G06T2207/30196
Abstract: 本发明公开了一种基于全局期望最大算法的手势分割方法及系统。包括:建立肤色的高斯模型;将待分割图像的所有像素点的像素值代入肤色的高斯模型,得到待分割图像的所有像素点的肤色相似度;根据待分割图像的深度信息及其中所有像素点的肤色相似度,得到由三维空间中各点及其肤色相似度组成的四维空间模型;将四维空间模型划分为多个子空间,在每个子空间中,构建评价超曲面拟合效果的损失函数,利用梯度下降法使损失函数最小,得到子空间的四维空间超曲面,最后按照梯度上升的方向得到各子空间的四维空间超曲面的极大值;本发明能生成可比较的数学描述,实现两种模型融合的基础,为不同模态数据之间的融合提供一种新的依据。
-
公开(公告)号:CN112182308B
公开(公告)日:2023-03-24
申请号:CN202011056680.0
申请日:2020-09-29
Applicant: 华中师范大学
IPC: G06F16/901 , G06F16/903 , G06F17/16 , G06F18/214 , G06N3/0464
Abstract: 本发明公开了一种基于多热编码的多特征融合深度知识追踪方法及系统。该方法包括步骤:获取学生的答题数据集;提取问题编号特征p、技能编号特征s、答题表现特征c、尝试次数特征att、首次操作特征act、学生首次反应时间特征frt;将提取的6个特征转换为分类变量;将问题编号特征p和技能编号特征s进行多热编码,获得多热技能编码Multi(multi_s),将其他特征进行独热编码,获得独热编码O,将多热技能编码Multi(multi_s)和独热编码O进行拼接及降维处理后输入到深度知识追踪模型进行知识追踪。本发明可以提高数据集的数据利用率,并且实现多技能的预测。
-
公开(公告)号:CN112949935B
公开(公告)日:2022-06-17
申请号:CN202110326338.6
申请日:2021-03-26
Applicant: 华中师范大学
Abstract: 本发明公开了一种融合学生、知识点、题目三者间交互信息的知识追踪方法与系统。该方法包括步骤:获取学生历史答题记录集合;对学生历史答题记录集合中的数据进行编码,获取当前答题记录编码和下一题目信息编码,将当前答题记录编码与下一题目信息编码进行拼接得到输出向量;从输出向量中解码出学生与题目间的交互参数、学生与知识点间的交互参数,从下一题目信息编码中解码出知识点与题目的交互参数;将所有交互参数输入到贝叶斯概率模型,输出答题预测结果。本发明融合了深度学习模型和贝叶斯概率模型,建模了学生和知识点的交互、学生和题目的交互、知识点和题目间的交互,为解释学习过程提供了良好的可解释性,提高了知识追踪准确性。
-
公开(公告)号:CN112949929B
公开(公告)日:2022-06-07
申请号:CN202110276011.2
申请日:2021-03-15
Applicant: 华中师范大学
Abstract: 本发明公开了一种基于协同嵌入增强题目表示的知识追踪方法及系统。该方法包括步骤:预训练、向量融合、更新知识状态和输出预测结果,其中在预训练时,根据学生历史答题数据集构建学生与题目二部图和题目与技能二部图,来捕捉题目之间的协同信号,然后采用node2vec算法将协同信号中蕴含的题目相似性编码到题目嵌入中。本发明可以解决“技能层次模型问题”和稀疏问题等导致的信息不足问题,提升知识追踪的预测性能,并且数据越稀疏,相比现有技术的优势越明显。
-
公开(公告)号:CN112949929A
公开(公告)日:2021-06-11
申请号:CN202110276011.2
申请日:2021-03-15
Applicant: 华中师范大学
Abstract: 本发明公开了一种基于协同嵌入增强题目表示的知识追踪方法及系统。该方法包括步骤:预训练、向量融合、更新知识状态和输出预测结果,其中在预训练时,根据学生历史答题数据集构建学生与题目二部图和题目与技能二部图,来捕捉题目之间的协同信号,然后采用node2vec算法将协同信号中蕴含的题目相似性编码到题目嵌入中。本发明可以解决“技能层次模型问题”和稀疏问题等导致的信息不足问题,提升知识追踪的预测性能,并且数据越稀疏,相比现有技术的优势越明显。
-
-
-
-
-
-
-
-
-