一种结合剪枝与知识蒸馏的卷积神经网络模型压缩方法

    公开(公告)号:CN113159173B

    公开(公告)日:2024-04-26

    申请号:CN202110427314.X

    申请日:2021-04-20

    Abstract: 本发明涉及一种结合剪枝与知识蒸馏的卷积神经网络模型压缩方法。该方法包括:获取图像训练集A;获取目标网络模型,对其包含的每个通道引入缩放因子γ;对目标网络模型进行训练,将训练后的模型作为教师网络;按照缩放因子γ的绝对值大小对教师网络的通道数剪枝,将剪枝后的模型视为学生网络;获取图像训练集A中少量图像,同时输入教师、学生网络,分别计算教师、学生网络各卷积层通道输出的特征图之间的分布差异;将分布差异作为损失函数,对学生网络进行训练,使其模型精度快速恢复至教师网络的水平;输出训练后的学生网络。本发明具有压缩率高、快速恢复压缩模型精度的优势,从而便于网络模型在终端设备上的部署。

    一种结合剪枝与知识蒸馏的卷积神经网络模型压缩方法

    公开(公告)号:CN113159173A

    公开(公告)日:2021-07-23

    申请号:CN202110427314.X

    申请日:2021-04-20

    Abstract: 本发明涉及一种结合剪枝与知识蒸馏的卷积神经网络模型压缩方法。该方法包括:获取图像训练集A;获取目标网络模型,对其包含的每个通道引入缩放因子γ;对目标网络模型进行训练,将训练后的模型作为教师网络;按照缩放因子γ的绝对值大小对教师网络的通道数剪枝,将剪枝后的模型视为学生网络;获取图像训练集A中少量图像,同时输入教师、学生网络,分别计算教师、学生网络各卷积层通道输出的特征图之间的分布差异;将分布差异作为损失函数,对学生网络进行训练,使其模型精度快速恢复至教师网络的水平;输出训练后的学生网络。本发明具有压缩率高、快速恢复压缩模型精度的优势,从而便于网络模型在终端设备上的部署。

Patent Agency Ranking