-
公开(公告)号:CN116543338A
公开(公告)日:2023-08-04
申请号:CN202310539724.2
申请日:2023-05-15
Applicant: 重庆邮电大学
IPC: G06V20/40 , G06V20/52 , G06V40/20 , G06V10/25 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/049 , G06N3/042
Abstract: 本发明属于图像处理与计算机视觉技术领域,具体涉及一种基于注视目标估计的学生课堂行为检测方法;包括构建并训练学生课堂行为检测模型,获取监控摄像头采集的课堂实时视频并输入训练好的学生课堂行为检测模型,得到课堂上所有学生的行为检测结果;所述学生课堂行为检测模型包括时空特征金字塔网络、动态实例交互头、注视目标估计模块、ROI映射模块和融合模块;本发明为一个端到端的单阶段学生课堂行为检测方法,可以有效的提高预测的实时性;使用动态实例交互头,并采用一对一标签分配方法,实现了教学场景下的拥挤目标检测,并有效减少重复预测。
-
公开(公告)号:CN112016506B
公开(公告)日:2022-10-11
申请号:CN202010926300.8
申请日:2020-09-07
Applicant: 重庆邮电大学
IPC: G06V40/10 , G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明属于图像处理与计算机视觉技术领域,涉及一种快速适应新场景的教室姿态检测模型参数训练方法及装置,所述方法包括:将教室姿态检测模型的参数进行随机初始化;将教室姿态检测数据集按场景划分为小目标数据集;随机选取其中n个小目标数据集,复制模型参数并在各个小目标数据集的训练集上进行训练并在对应测试集上测得损失,并计算各个小目标数据集损失的平均值;将平均值用作是模型参数的教室姿态检测模型的损失,利用该损失对模型参数进行梯度下降,得到新的模型参数;本发明能有效减少人工标注成本,在进一步训练后得到模型参数下的检测结果相对于在训练集上的所有图片进行训练的传统训练方法得到的模型更为准确。
-
公开(公告)号:CN112016506A
公开(公告)日:2020-12-01
申请号:CN202010926300.8
申请日:2020-09-07
Applicant: 重庆邮电大学
Abstract: 本发明属于图像处理与计算机视觉技术领域,涉及一种快速适应新场景的教室姿态检测模型参数训练方法及装置,所述方法包括:将教室姿态检测模型的参数进行随机初始化;将教室姿态检测数据集按场景划分为小目标数据集;随机选取其中n个小目标数据集,复制模型参数并在各个小目标数据集的训练集上进行训练并在对应测试集上测得损失,并计算各个小目标数据集损失的平均值;将平均值用作是模型参数的教室姿态检测模型的损失,利用该损失对模型参数进行梯度下降,得到新的模型参数;本发明能有效减少人工标注成本,在进一步训练后得到模型参数下的检测结果相对于在训练集上的所有图片进行训练的传统训练方法得到的模型更为准确。
-
公开(公告)号:CN116597503A
公开(公告)日:2023-08-15
申请号:CN202310306774.6
申请日:2023-03-27
Applicant: 重庆邮电大学
Abstract: 本发明属于图像处理与计算机视觉技术领域,具体涉及一种基于时空特征的课堂行为检测方法,包括:将教室视频中以K为间隔挑选三帧关键帧并进行灰度化处理后按照RGB三通道进行拼接,形成包含运动信息的三通道时空图像;以DarkNet‑19为特征提取器获取三通道时空图像的特征,增加全连接层输出初步建议区域;将初步建议区域的三通道时空图像通过逐帧堆叠纵向扫描线获取STMap;将STMap进行初始化,通过时空特征提取器中获得运动信息波动特征图;以目标检测网络YOLOv5为基础网络,将运动信息波动特征图输入到网络中进行检测,并进行后处理,得到检测结果。本发明有效减小网络的计算量,提高细粒度学生行为检测的准确率。
-
公开(公告)号:CN116229331A
公开(公告)日:2023-06-06
申请号:CN202310425945.7
申请日:2023-04-20
Applicant: 重庆邮电大学
IPC: G06V20/40 , G06T5/50 , G06T3/40 , G06N3/0464 , G06N3/08
Abstract: 本发明属于图像处理与计算机视觉技术领域,具体涉及一种基于注意力机制的快速行为检测方法,包括基于端到端实时性的YOWO网络,分别将RGB视频连续帧和RGB关键帧信息输入到时序检测模块和空间检测模块进行处理;在空间检测模块中,通过增加了残差模块的特征提取器输出对应的特征;将特征通过空间域注意力机制获取更加细粒度的注意力机制特征;将两个支路的特征通过卷积层进行拼接融合,最后对这些融合特征进行检测,得到该视频目标行为所属的类别、持续时间和位置信息;在保证实时性和体量较小的前提下,解决了行为类间差距较小的问题,有效提高时空行为检测的准确率。
-
公开(公告)号:CN112507904B
公开(公告)日:2022-06-03
申请号:CN202011473933.4
申请日:2020-12-15
Applicant: 重庆邮电大学
Abstract: 本发明涉及基于多尺度特征的教室人体姿态实时检测方法,属于图像处理与计算机视觉技术领域;所述方法包括基于单阶段目标检测的SSD网络,将教室图像通过分块处理进行数据增强,通过VGG‑16网络提取图像的基础特征,并采用RFB模块提取级联的多尺度特征图;通过多尺度特征增强分支,将原图下采样且送入到多尺度特征增强模块学习多尺度信息,并通过点乘的方式与级联的多尺度特征图进行融合;通过特征自适应融合模块将浅层的细粒度特征与高层语义特征进行互补融合,以提升网络对相似姿态类别的鉴别能力,最后将自适应融合后的特征图进行分类和回归;在保证实时的前提下,解决了在人体密度较大,遮挡较为严重的教室场景的人体姿态检测问题。
-
公开(公告)号:CN112507904A
公开(公告)日:2021-03-16
申请号:CN202011473933.4
申请日:2020-12-15
Applicant: 重庆邮电大学
Abstract: 本发明涉及基于多尺度特征的教室人体姿态实时检测方法,属于图像处理与计算机视觉技术领域;所述方法包括基于单阶段目标检测的SSD网络,将教室图像通过分块处理进行数据增强,通过VGG‑16网络提取图像的基础特征,并采用RFB模块提取级联的多尺度特征图;通过多尺度特征增强分支,将原图下采样且送入到多尺度特征增强模块学习多尺度信息,并通过点乘的方式与级联的多尺度特征图进行融合;通过特征自适应融合模块将浅层的细粒度特征与高层语义特征进行互补融合,以提升网络对相似姿态类别的鉴别能力,最后将自适应融合后的特征图进行分类和回归;在保证实时的前提下,解决了在人体密度较大,遮挡较为严重的教室场景的人体姿态检测问题。
-
-
-
-
-
-