一种面向BERT模型的剪枝可视分析方法

    公开(公告)号:CN115713576A

    公开(公告)日:2023-02-24

    申请号:CN202211464654.0

    申请日:2022-11-22

    Abstract: 本发明公开了一种面向BERT模型的剪枝可视分析方法,包括如下步骤:训练模型BERT,提取BERT模型结构图,并保存训练结果;训练结果可视化显示;利用剪枝可视分析系统组件分析模型剪枝可能性,设置剪枝参数,利用模型剪枝算法精简模型,再进行训练,观察模型各项评估指标;保存剪枝后模型及模型参数,当剪枝模型达到性能指标以及模型参数量达到要求水平,保存剪枝模型及模型参数。该方法通过可视化的方式展示模型剪枝过程,利用多图可视化分析技术,了解模型训练数据集样本,关注模型训练过程指标变化,发现训练样本自注意力分布情况,有助于加深模型研究人员对模型的了解,帮助研究人员对模型进行剪枝研究,达到降低模型参数量及优化模型的目的。

    一种基于Transformer自注意力的可视分析方法及装置

    公开(公告)号:CN116975253A

    公开(公告)日:2023-10-31

    申请号:CN202310750125.5

    申请日:2023-06-25

    Abstract: 本发明公开了一种基于Transformer自注意力的可视分析方法及装置。本发明通过可视分析图表了解深度学习模型的训练层及注意力头的自注意力的整体分布情况及统计规律,并可通过数据链接图和矩阵图具体训练样本查看自注意力在实例中的联系情况;计算机视觉领域的注意力可视分析揭示在训练任务中像素块之间的相互关注性,通过全局归一化和局部归一化两种方式查看不同层和头之间的自注意力分布情况,获得下游任务得出结果的过程。通过本发明,研究人员利用统计分析图表,可直观地观察Transformer模型内部注意力头的值分布情况,选择感兴趣的注意力头。且通过具体的单个注意力头可视化,研究人员可以分析注意力头在具体任务中所发挥的作用,帮助研究人员改进优化模型。

Patent Agency Ranking