一种基于Transformer自注意力的可视分析方法及装置

    公开(公告)号:CN116975253A

    公开(公告)日:2023-10-31

    申请号:CN202310750125.5

    申请日:2023-06-25

    Abstract: 本发明公开了一种基于Transformer自注意力的可视分析方法及装置。本发明通过可视分析图表了解深度学习模型的训练层及注意力头的自注意力的整体分布情况及统计规律,并可通过数据链接图和矩阵图具体训练样本查看自注意力在实例中的联系情况;计算机视觉领域的注意力可视分析揭示在训练任务中像素块之间的相互关注性,通过全局归一化和局部归一化两种方式查看不同层和头之间的自注意力分布情况,获得下游任务得出结果的过程。通过本发明,研究人员利用统计分析图表,可直观地观察Transformer模型内部注意力头的值分布情况,选择感兴趣的注意力头。且通过具体的单个注意力头可视化,研究人员可以分析注意力头在具体任务中所发挥的作用,帮助研究人员改进优化模型。

    一种基于Transformer的多模态美学质量评价方法

    公开(公告)号:CN117635964A

    公开(公告)日:2024-03-01

    申请号:CN202310175150.5

    申请日:2023-02-28

    Inventor: 林裕皓 高飞 徐岗

    Abstract: 本发明公开了一种基于Transformer的多模态美学质量评价方法,包括步骤如下:S1、将图像输入视觉特征编码器中提取视觉特征;S2、将对应的用户评论数据输入文本特征编码器中提取包含语义信息的文本特征;S3、提取得到视觉特征和文本特征输入跨模态编码器中,输出特征融合后的视觉特征和文本特征;S4、将S3中输出的视觉特征和文本特征进行连接,经过一层Linear层输出10维的美学分数分布,使用EMD作为损失函数进行训练优化。该方法设计一个良好的跨模态编码器充分地学习另一模态的信息,充分地建模视觉特征和文本特征之间的内在关联性,有效地提升美学质量评价的性能。

Patent Agency Ranking