面向深度神经网络鲁棒性的剪枝和形式化验证方法

    公开(公告)号:CN117391173A

    公开(公告)日:2024-01-12

    申请号:CN202311216939.7

    申请日:2023-09-20

    Abstract: 本发明公开了面向深度神经网络鲁棒性的剪枝和形式化验证方法,包括:S1:选取一个待验证的样本,在规定的扰动范围内,生成大量不重复的随机样本;S2:将每一个随机样本通过待验证的神经网络,在此过程中,统计神经元的覆盖率;S3:计算每一个隐藏层神经元的取值范围;S4:根据隐藏层神经元的取值范围,将处于未激活状态的神经元以及和它关联的边从神经网络中移除;S5:使用混合整数线性规划方法对剪枝后的神经网络进行建模;S6:将建模后的神经网络和待验证的属性输入线性规划求解器进行求解,根据求解结果判断当前样本下神经网络的鲁棒性。本发明的有益效果是:减少神经网络鲁棒性的验证时间,提高可验证的神经网络规模。

    高效的无数据黑盒集成对抗性攻击方法

    公开(公告)号:CN117392435A

    公开(公告)日:2024-01-12

    申请号:CN202311216929.3

    申请日:2023-09-20

    Abstract: 本发明公开了一种高效的无数据黑盒集成对抗性攻击方法,通过改变生成器和替代模型之间的博弈,而不是用不准确的替代目标分歧来训练生成器,让生成器和替代模型具有相对独立的优化过程。此外,通过平衡数据分布和促进数据多样性的角度来缓解无数据替代模型训练中的模型崩溃问题。最后,将集成模型视为外循环的一批数据,并在内循环的每次迭代中随机挑选一个模型,然后再使用最新内循环对抗示例的调整梯度更新外部对抗示例。本发明所述技术方案中的替代模型能够更稳定地收敛到目标模型,并且能够提高替代模型的精度和攻击成功率。采取优化的集成攻击可以降低集成模型的梯度方差,进一步提高攻击成功率。

    面向图像分类的深度神经网络无数据普适对抗攻击方法

    公开(公告)号:CN117197532A

    公开(公告)日:2023-12-08

    申请号:CN202310963827.1

    申请日:2023-08-02

    Abstract: 本发明提供一种面向图像分类的深度神经网络无数据普适对抗攻击方法,包括:步骤1、得到不同置信度的类别印象;步骤2、扰动初始化;步骤3、将类别印象作为训练数据分批次输入至模型,得到原始数据在模型最后一个全连接层的输出向量;将同批次训练数据添加扰动后输入至模型,得到扰动后数据在模型最后一个全连接层的输出向量;计算添加扰动前后该批次训练数据输出向量间的余弦相似度均值,得到损失值和梯度信息,交由优化器对扰动进行更新;步骤4、验证攻击效果;步骤5、输出扰动向量并可视化。本发明能够消除对训练数据的依赖,并高效率地生成普适对抗扰动。

Patent Agency Ranking