基于学生视觉注意及教师行为的课程质量评估与提升方法

    公开(公告)号:CN113506027A

    公开(公告)日:2021-10-15

    申请号:CN202110849982.1

    申请日:2021-07-27

    Abstract: 本发明公开了一种基于学生视觉注意及教师行为的课程质量评估与提升方法,本申请通过眼动仪获取学生的教师的注意信息,通过摄影设备对教师课堂进行记录,利用TensorFlow API框架目标检测与眼动仪相结合的测量方法,实时获取眼球跟踪点与佩戴者的距离,以获取使用者实时的注视信息,并对视频内容进行分析,与眼动坐标相关联,获取学生注意信息与教师行为与课堂重点内容的关系。

    基于分层强化学习的慕课课程推荐系统方法

    公开(公告)号:CN116595245A

    公开(公告)日:2023-08-15

    申请号:CN202310405646.7

    申请日:2023-04-17

    Abstract: 本发明提出一种基于分层强化学习的慕课课程推荐系统方法,属于强化学习教育领域;其中强化学习数据模块使用分层强化学习对学生历史选课信息进行处理,通过两层智能体共同判断目标学生选课信息是否需要修改,极大地减少了无关课程对推荐系统结果的干扰,为课程推荐系统提供了更好的数据处理方式;强化学习推荐模块使用分层强化学习进行课程推荐,将课程推荐任务分成两部分,使用两层智能体共同推荐预测目标课程,能够很大程度上规避热门领域课程推荐概率过大的问题,提高推荐系统准确率,并提供了新的慕课课程推荐系统的思路与方法。

    基于迁移学习和卷积神经网络的面部识别方法

    公开(公告)号:CN113505740B

    公开(公告)日:2023-10-10

    申请号:CN202110849654.1

    申请日:2021-07-27

    Abstract: 本发明公开了一种基于迁移学习和卷积神经网络的面部识别方法,包括:建立VGG‑16模型并对其进行训练得到训练后的VGG‑16模型,将其迁移至暹罗网络中,对训练后的VGG‑16模型进行微调得到微调后的VGG‑16模型;在暹罗网络中输入一对待判断的图像,微调后的VGG‑16模型分别提取出第一面部图像的特征向量和第二面部图像的特征向量,根据特征向量计算欧几里德距离;根据欧几里德距离得到预测值;若预测值为0,则第一面部图像与第二面部图像属于同一个人;若预测值为1,则第一面部图像与第二面部图像不属于同一个人。通过将VGG‑16模型迁移至暹罗模型中,权重在并行的卷积神经网络之间共享,提高人脸识别效率。

    基于APSO-LSTM网络的教育大数据文本分析方法

    公开(公告)号:CN113505581A

    公开(公告)日:2021-10-15

    申请号:CN202110849014.0

    申请日:2021-07-27

    Abstract: 本申请公开了一种基于APSO‑LSTM网络的教育大数据文本分析方法,采集原始数据,形成数据集,数据集包括第一原始数据集和第二原始数据集;预处理第一原始数据集,得到文本数据集;利用Skip‑Gram模型训练文本数据集,得到词向量集;对词向量集标上情感标签,形成样本数据集,样本数据集包括训练集;利用训练集训练APSO‑LSTM网络模型,得到文本情感分析模型;将第二原始数据集输入至文本情感分析模型后,将第二原始数据集中的原始数据的分类结果各自保存成文本文件;利用Word2Vec模型训练文本文件得到正负情感倾向的关键词;根据关键词生成情感分析报告,为网络在线教育的改进提供依据。

    一种面向局部失真的点云无参考质量度量方法

    公开(公告)号:CN116363385A

    公开(公告)日:2023-06-30

    申请号:CN202310358835.3

    申请日:2023-04-06

    Abstract: 本发明涉及一种面向局部失真的点云无参考质量度量方法,属于计算机视觉和计算机图形学领域。该方法首先对失真点云进行分割生成一组点云柱,之后通过映射将3D点云转换为2D伪图像。再通过二维卷积组成的网络对2D伪图像提取高维特征,最终预测得到与主观感知结果高度相似的客观质量分数。本发明在不需要原始参考点云信息的基础上,解决现有方法中信息丢失的问题,有效提取点云的局部失真特征,从而全面地对失真点云进行质量度量。

    基于全局信息的端到端的anchor-free时序动作检测方法

    公开(公告)号:CN116052267A

    公开(公告)日:2023-05-02

    申请号:CN202211657278.7

    申请日:2022-12-22

    Abstract: 时序动作检测是一个重要并且具有挑战性的视频理解任务。此任务旨在推理未修剪的长视频中动作实例的开始,结束位置和动作类别。目前表现优异的模型大多数是anchor‑base类别的。Anchor‑base类别的方法严重依赖预定义anchor的大小和数量。在另一类anchor‑free的方法中,大多数方法都需要额外的分类模型,这使得模型不能端到端共享信息。上述的这些问题使得现有的时序动作定位模型不够灵活并且产生了大量的冗余参数。为了解决上述问题,本申请提出了一种基于全局信息的端到端的anchor‑free时序动作检测方法,包括:使用视频数据集kinetics对backbone网络进行预训练,充分利用预训练模型的优势;并构建特征金字塔网络和自注意力模块,通过该部分网络模块生成带有全局信息的视频特征。

    基于迁移学习和卷积神经网络的面部识别方法

    公开(公告)号:CN113505740A

    公开(公告)日:2021-10-15

    申请号:CN202110849654.1

    申请日:2021-07-27

    Abstract: 本发明公开了一种基于迁移学习和卷积神经网络的面部识别方法,包括:建立VGG‑16模型并对其进行训练得到训练后的VGG‑16模型,将其迁移至暹罗网络中,对训练后的VGG‑16模型进行微调得到微调后的VGG‑16模型;在暹罗网络中输入一对待判断的图像,微调后的VGG‑16模型分别提取出第一面部图像的特征向量和第二面部图像的特征向量,根据特征向量计算欧几里德距离;根据欧几里德距离得到预测值;若预测值为0,则第一面部图像与第二面部图像属于同一个人;若预测值为1,则第一面部图像与第二面部图像不属于同一个人。通过将VGG‑16模型迁移至暹罗模型中,权重在并行的卷积神经网络之间共享,提高人脸识别效率。

Patent Agency Ranking