快速适应新场景的教室姿态检测模型参数训练方法

    公开(公告)号:CN112016506B

    公开(公告)日:2022-10-11

    申请号:CN202010926300.8

    申请日:2020-09-07

    Abstract: 本发明属于图像处理与计算机视觉技术领域,涉及一种快速适应新场景的教室姿态检测模型参数训练方法及装置,所述方法包括:将教室姿态检测模型的参数进行随机初始化;将教室姿态检测数据集按场景划分为小目标数据集;随机选取其中n个小目标数据集,复制模型参数并在各个小目标数据集的训练集上进行训练并在对应测试集上测得损失,并计算各个小目标数据集损失的平均值;将平均值用作是模型参数的教室姿态检测模型的损失,利用该损失对模型参数进行梯度下降,得到新的模型参数;本发明能有效减少人工标注成本,在进一步训练后得到模型参数下的检测结果相对于在训练集上的所有图片进行训练的传统训练方法得到的模型更为准确。

    快速适应新场景的教室姿态检测模型参数训练方法

    公开(公告)号:CN112016506A

    公开(公告)日:2020-12-01

    申请号:CN202010926300.8

    申请日:2020-09-07

    Abstract: 本发明属于图像处理与计算机视觉技术领域,涉及一种快速适应新场景的教室姿态检测模型参数训练方法及装置,所述方法包括:将教室姿态检测模型的参数进行随机初始化;将教室姿态检测数据集按场景划分为小目标数据集;随机选取其中n个小目标数据集,复制模型参数并在各个小目标数据集的训练集上进行训练并在对应测试集上测得损失,并计算各个小目标数据集损失的平均值;将平均值用作是模型参数的教室姿态检测模型的损失,利用该损失对模型参数进行梯度下降,得到新的模型参数;本发明能有效减少人工标注成本,在进一步训练后得到模型参数下的检测结果相对于在训练集上的所有图片进行训练的传统训练方法得到的模型更为准确。

    一种基于时空特征的课堂行为检测方法

    公开(公告)号:CN116597503A

    公开(公告)日:2023-08-15

    申请号:CN202310306774.6

    申请日:2023-03-27

    Abstract: 本发明属于图像处理与计算机视觉技术领域,具体涉及一种基于时空特征的课堂行为检测方法,包括:将教室视频中以K为间隔挑选三帧关键帧并进行灰度化处理后按照RGB三通道进行拼接,形成包含运动信息的三通道时空图像;以DarkNet‑19为特征提取器获取三通道时空图像的特征,增加全连接层输出初步建议区域;将初步建议区域的三通道时空图像通过逐帧堆叠纵向扫描线获取STMap;将STMap进行初始化,通过时空特征提取器中获得运动信息波动特征图;以目标检测网络YOLOv5为基础网络,将运动信息波动特征图输入到网络中进行检测,并进行后处理,得到检测结果。本发明有效减小网络的计算量,提高细粒度学生行为检测的准确率。

    一种基于注意力机制的快速行为检测方法

    公开(公告)号:CN116229331A

    公开(公告)日:2023-06-06

    申请号:CN202310425945.7

    申请日:2023-04-20

    Abstract: 本发明属于图像处理与计算机视觉技术领域,具体涉及一种基于注意力机制的快速行为检测方法,包括基于端到端实时性的YOWO网络,分别将RGB视频连续帧和RGB关键帧信息输入到时序检测模块和空间检测模块进行处理;在空间检测模块中,通过增加了残差模块的特征提取器输出对应的特征;将特征通过空间域注意力机制获取更加细粒度的注意力机制特征;将两个支路的特征通过卷积层进行拼接融合,最后对这些融合特征进行检测,得到该视频目标行为所属的类别、持续时间和位置信息;在保证实时性和体量较小的前提下,解决了行为类间差距较小的问题,有效提高时空行为检测的准确率。

    一种基于多尺度特征的教室人体姿态实时检测方法

    公开(公告)号:CN112507904B

    公开(公告)日:2022-06-03

    申请号:CN202011473933.4

    申请日:2020-12-15

    Abstract: 本发明涉及基于多尺度特征的教室人体姿态实时检测方法,属于图像处理与计算机视觉技术领域;所述方法包括基于单阶段目标检测的SSD网络,将教室图像通过分块处理进行数据增强,通过VGG‑16网络提取图像的基础特征,并采用RFB模块提取级联的多尺度特征图;通过多尺度特征增强分支,将原图下采样且送入到多尺度特征增强模块学习多尺度信息,并通过点乘的方式与级联的多尺度特征图进行融合;通过特征自适应融合模块将浅层的细粒度特征与高层语义特征进行互补融合,以提升网络对相似姿态类别的鉴别能力,最后将自适应融合后的特征图进行分类和回归;在保证实时的前提下,解决了在人体密度较大,遮挡较为严重的教室场景的人体姿态检测问题。

    一种基于多尺度特征的教室人体姿态实时检测方法

    公开(公告)号:CN112507904A

    公开(公告)日:2021-03-16

    申请号:CN202011473933.4

    申请日:2020-12-15

    Abstract: 本发明涉及基于多尺度特征的教室人体姿态实时检测方法,属于图像处理与计算机视觉技术领域;所述方法包括基于单阶段目标检测的SSD网络,将教室图像通过分块处理进行数据增强,通过VGG‑16网络提取图像的基础特征,并采用RFB模块提取级联的多尺度特征图;通过多尺度特征增强分支,将原图下采样且送入到多尺度特征增强模块学习多尺度信息,并通过点乘的方式与级联的多尺度特征图进行融合;通过特征自适应融合模块将浅层的细粒度特征与高层语义特征进行互补融合,以提升网络对相似姿态类别的鉴别能力,最后将自适应融合后的特征图进行分类和回归;在保证实时的前提下,解决了在人体密度较大,遮挡较为严重的教室场景的人体姿态检测问题。

Patent Agency Ranking