-
公开(公告)号:CN113505740B
公开(公告)日:2023-10-10
申请号:CN202110849654.1
申请日:2021-07-27
Applicant: 北京工商大学
IPC: G06V40/16 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于迁移学习和卷积神经网络的面部识别方法,包括:建立VGG‑16模型并对其进行训练得到训练后的VGG‑16模型,将其迁移至暹罗网络中,对训练后的VGG‑16模型进行微调得到微调后的VGG‑16模型;在暹罗网络中输入一对待判断的图像,微调后的VGG‑16模型分别提取出第一面部图像的特征向量和第二面部图像的特征向量,根据特征向量计算欧几里德距离;根据欧几里德距离得到预测值;若预测值为0,则第一面部图像与第二面部图像属于同一个人;若预测值为1,则第一面部图像与第二面部图像不属于同一个人。通过将VGG‑16模型迁移至暹罗模型中,权重在并行的卷积神经网络之间共享,提高人脸识别效率。
-
公开(公告)号:CN116052267A
公开(公告)日:2023-05-02
申请号:CN202211657278.7
申请日:2022-12-22
Applicant: 北京工商大学
IPC: G06V40/20 , G06V20/40 , G06V10/764
Abstract: 时序动作检测是一个重要并且具有挑战性的视频理解任务。此任务旨在推理未修剪的长视频中动作实例的开始,结束位置和动作类别。目前表现优异的模型大多数是anchor‑base类别的。Anchor‑base类别的方法严重依赖预定义anchor的大小和数量。在另一类anchor‑free的方法中,大多数方法都需要额外的分类模型,这使得模型不能端到端共享信息。上述的这些问题使得现有的时序动作定位模型不够灵活并且产生了大量的冗余参数。为了解决上述问题,本申请提出了一种基于全局信息的端到端的anchor‑free时序动作检测方法,包括:使用视频数据集kinetics对backbone网络进行预训练,充分利用预训练模型的优势;并构建特征金字塔网络和自注意力模块,通过该部分网络模块生成带有全局信息的视频特征。
-
公开(公告)号:CN113505740A
公开(公告)日:2021-10-15
申请号:CN202110849654.1
申请日:2021-07-27
Applicant: 北京工商大学
Abstract: 本发明公开了一种基于迁移学习和卷积神经网络的面部识别方法,包括:建立VGG‑16模型并对其进行训练得到训练后的VGG‑16模型,将其迁移至暹罗网络中,对训练后的VGG‑16模型进行微调得到微调后的VGG‑16模型;在暹罗网络中输入一对待判断的图像,微调后的VGG‑16模型分别提取出第一面部图像的特征向量和第二面部图像的特征向量,根据特征向量计算欧几里德距离;根据欧几里德距离得到预测值;若预测值为0,则第一面部图像与第二面部图像属于同一个人;若预测值为1,则第一面部图像与第二面部图像不属于同一个人。通过将VGG‑16模型迁移至暹罗模型中,权重在并行的卷积神经网络之间共享,提高人脸识别效率。
-
-