-
公开(公告)号:CN117197532A
公开(公告)日:2023-12-08
申请号:CN202310963827.1
申请日:2023-08-02
Applicant: 大连理工大学
IPC: G06V10/764 , G06V10/74 , G06V10/774 , G06V10/82 , G06N3/094
Abstract: 本发明提供一种面向图像分类的深度神经网络无数据普适对抗攻击方法,包括:步骤1、得到不同置信度的类别印象;步骤2、扰动初始化;步骤3、将类别印象作为训练数据分批次输入至模型,得到原始数据在模型最后一个全连接层的输出向量;将同批次训练数据添加扰动后输入至模型,得到扰动后数据在模型最后一个全连接层的输出向量;计算添加扰动前后该批次训练数据输出向量间的余弦相似度均值,得到损失值和梯度信息,交由优化器对扰动进行更新;步骤4、验证攻击效果;步骤5、输出扰动向量并可视化。本发明能够消除对训练数据的依赖,并高效率地生成普适对抗扰动。
-
公开(公告)号:CN116820937A
公开(公告)日:2023-09-29
申请号:CN202310669402.X
申请日:2023-06-07
Applicant: 大连理工大学
IPC: G06F11/36 , G06V10/764 , G06N3/08 , G06V10/82
Abstract: 本发明公开了面向目标识别的深度神经网络黑盒脆弱性测试方法,涉及人工智能领域。技术方案:通过使用尺度不变特征变换的方法对测试图片进行关键点提取,通过将对抗样本搜索树生成过程设计为双人博弈的启发式搜索过程,并使用UCB公式对启发式搜索过程进行修正,通过对平均攻击次数、平均扰动距离和平均分类精度等多个维度的数据统计,实现对目标识别模型在大量黑盒对抗攻击下可靠服务能力的定量分析。有益效果:有效定位目标识别模型的决策边界,降低对抗样本搜索树的构造复杂度,提高对抗样本的生成效率;避免在对抗样本搜索过程中陷入局部最优而不能得到更接近于实际的全局最优解;从多个数据维度对目标识别深度神经网络进行脆弱性测试与评价。
-