基于决策边界及信赖域的对抗样本优化方法

    公开(公告)号:CN114693989B

    公开(公告)日:2024-11-26

    申请号:CN202210225326.9

    申请日:2022-03-09

    Abstract: 本发明涉及一种基于决策边界及信赖域的对抗样本优化生成方法,属于深度学习以及图像识别领域。本发明利用白盒攻击方法生成对抗样本,之后基于决策边界及信赖域对对抗样本进行多层次优化,引导生成扰动最小的对抗样本。进一步通过选取合适的适应度函数评价对抗样本,从众多添加了对抗噪声的样本中优选出精英样本。进一步通过迭代对精英样本向原始样本在L∞限制范围内投影优选扰动最小的对抗样本。对比现有技术,本发明生成的对抗样本扰动明显减小,并且对抗样本更符合人类视觉认知。

    基于可解释性的神经网络后门样本过滤方法

    公开(公告)号:CN117196964A

    公开(公告)日:2023-12-08

    申请号:CN202310748168.X

    申请日:2023-06-25

    Abstract: 本发明公开了一种基于可解释性的神经网络后门样本过滤方法,属于深度学习安全技术领域。该方法包括以下步骤:将待检测样本输入模型进行前向传播,提取待检测样本最高卷积层特征图并获得待检测样本预测结果向量;将待检测样本预测结果向量进行反向传播,得到待检测样本最高卷积层特征图对于目标类别的梯度;将待检测样本最高卷积层特征图以梯度为权重进行加权求和,得到目标类别的类激活图;对关键决策区域进行擦除修复,得到修复样本;将修复样本输入模型获取修复样本预测结果向量,以及擦除前后预测类别;根据擦除前后预测类别对比,实现后门样本过滤。本发明可以在无需额外干净样本的条件下实现高精度的后门样本过滤,保障神经网络安全。

    一种适应样本的双阶增强干净标签神经网络后门植入方法

    公开(公告)号:CN116244690A

    公开(公告)日:2023-06-09

    申请号:CN202211243670.7

    申请日:2022-10-11

    Abstract: 本发明提出了一种适应样本的双阶增强干净标签神经网络后门植入方法,属于深度学习安全技术领域,本发明主要包括以下内容:步骤1:设计用于促进干净标签条件下后门攻击的针对具体图像自适应生成的两阶段触发器Δ;步骤2:设计和训练用于生成步骤1中所述触发器的触发器生成器G;步骤3:使用触发器生成器G开展干净标签后门攻击中后门植入的过程;步骤4:使用触发器生成器G开展干净标签后门攻击中后门激活的过程。本方法具有两点显著效果:(1)高效性:我们的触发器可以根据这两个阶段的不同任务促进后门植入和后门激活;(2)隐蔽性:我们的触发器是从每个图像中生成的。

    一种视觉感知扰动约束的黑盒深度模型对抗样本生成方法

    公开(公告)号:CN113221388A

    公开(公告)日:2021-08-06

    申请号:CN202110669413.9

    申请日:2021-06-17

    Abstract: 本发明涉及一种视觉感知扰动约束的黑盒深度模型对抗样本生成方法,属于深度学习安全技术领域,解决现有技术中使用Lp范数约束生成的对抗样本在具有防御功能的黑盒环境下存在成功率较低和转移性较差等不足。本发明利用感知相似性来生成对抗样本,并与现有攻击结合,产生一种新的对抗攻击策略。本发明生成的对抗样本,可以通过与人类感知相同的方式扰乱图像。本发明的对抗攻击策略,能够产生更大的扰动,但仍然对人类眼睛是隐形的。由于更大的扰动意味着对抗样本更有效,因此,本发明生成的对抗样本能够以更高的成功率攻击深度学习模型,能够以更高的置信度从一种计算机视觉任务转移到另一种计算机视觉任务中,完全克服了现有技术的缺陷。

    基于决策边界及信赖域的对抗样本优化方法

    公开(公告)号:CN114693989A

    公开(公告)日:2022-07-01

    申请号:CN202210225326.9

    申请日:2022-03-09

    Abstract: 本发明涉及一种基于决策边界及信赖域的对抗样本优化生成方法,属于深度学习以及图像识别领域。本发明利用白盒攻击方法生成对抗样本,之后基于决策边界及信赖域对对抗样本进行多层次优化,引导生成扰动最小的对抗样本。进一步通过选取合适的适应度函数评价对抗样本,从众多添加了对抗噪声的样本中优选出精英样本。进一步通过迭代对精英样本向原始样本在L∞限制范围内投影优选扰动最小的对抗样本。对比现有技术,本发明生成的对抗样本扰动明显减小,并且对抗样本更符合人类视觉认知。

    一种面向替代模型的分类边界敏感的数据增广方法

    公开(公告)号:CN114692728A

    公开(公告)日:2022-07-01

    申请号:CN202210225312.7

    申请日:2022-03-09

    Abstract: 本发明涉及一种面向替代模型的分类边界敏感的数据增广方法,属于数据集增广、替代模型构建技术领域。包括如下步骤:步骤一:超参数设定;步骤二:初始参数设定;步骤三:在黑盒模型上查询得到数据集Sρ对应的置信度集O(Sρ);步骤四:更新训练集;步骤五:替代训练;步骤六:终止条件判别;步骤七:数据增广;步骤八:更新ρ。对比现有的替代模型数据增广方法,在相同查询次数的条件下,本发明生成的替代模型的精度有了很大提升,为黑盒模型的靶向攻击提高了成功率;本发明能够充分利用黑盒模型的查询次数,最大化地拟合黑盒模型的分类边界,提升对抗样本在替代模型与黑盒模型间的可转移性。

    一种视觉感知扰动约束的黑盒深度模型对抗样本生成方法

    公开(公告)号:CN113221388B

    公开(公告)日:2022-06-28

    申请号:CN202110669413.9

    申请日:2021-06-17

    Abstract: 本发明涉及一种视觉感知扰动约束的黑盒深度模型对抗样本生成方法,属于深度学习安全技术领域,解决现有技术中使用Lp范数约束生成的对抗样本在具有防御功能的黑盒环境下存在成功率较低和转移性较差等不足。本发明利用感知相似性来生成对抗样本,并与现有攻击结合,产生一种新的对抗攻击策略。本发明生成的对抗样本,可以通过与人类感知相同的方式扰乱图像。本发明的对抗攻击策略,能够产生更大的扰动,但仍然对人类眼睛是隐形的。由于更大的扰动意味着对抗样本更有效,因此,本发明生成的对抗样本能够以更高的成功率攻击深度学习模型,能够以更高的置信度从一种计算机视觉任务转移到另一种计算机视觉任务中,完全克服了现有技术的缺陷。

Patent Agency Ranking