一种针对智能人脸识别模型的随机对抗训练方法

    公开(公告)号:CN118095406A

    公开(公告)日:2024-05-28

    申请号:CN202410297400.7

    申请日:2024-03-15

    Abstract: 本发明涉及一种针对智能人脸识别模型的随机对抗训练方法,属于人工智能安全领域。包括:1.搭建人脸识别模型并初始化算法参数、构造人脸图片训练集;2.将人脸图片训练集随机划分为多个互不相交的训练子集;3.利用划分后的训练子集生成对抗训练子集;4.利用对抗训练子集和加权损失函数对人脸识别模型进行反向传播训练;5.判断是否满足所有训练子集全部完成对抗训练,是则执行步骤6,否则返回步骤3;6.判断人脸识别模型迭代次数是否达到终止条件,是则输出最终鲁棒人脸识别模型,否则返回步骤2继续执行。本发明能同时抵御人脸伪装攻击和人脸逃逸攻击,增强人脸识别模型抵御攻击且能保证干净人脸样本的识别准确率,增强模型的鲁棒性和泛化能力。

    一种具有听觉隐蔽性的黑盒语音对抗样本生成方法

    公开(公告)号:CN113362822A

    公开(公告)日:2021-09-07

    申请号:CN202110635286.0

    申请日:2021-06-08

    Abstract: 本发明涉及一种具有听觉隐蔽性的黑盒语音对抗样本生成方法,涉及人工智能安全技术领域。本发明主要技术方案包括初始化模拟退火参数;读入原始音频,初始化音频对抗样本;根据输入音频计算黑盒噪声,并做隐蔽性处理,即基于信号方差的时变噪声策略和基于人耳听觉效应的隐蔽性改进;利用黑盒噪声合成新的对抗样本;输入黑盒语音识别模型,判断是否攻击成功,如果攻击成功,则停止迭代,输出音频对抗样本,如果没有攻击成功,则按照Markov准则产生新解作为输入音频继续迭代,直到迭代完成或者攻击成功为止。本发明方法生成的音频对抗样本与原始音频相似度较高,更符合人耳听觉效应,具有较强的隐蔽性,能够在不被察觉的情况下攻击成功。

    一种基于高隐蔽性通用扰动的对抗样本生成方法

    公开(公告)号:CN111680292A

    公开(公告)日:2020-09-18

    申请号:CN202010524788.1

    申请日:2020-06-10

    Abstract: 本发明涉及一种基于高隐蔽性通用扰动的对抗样本生成方法,涉及人工智能安全技术领域。本发明首先将攻击目标函数优化问题,由最大化单一图像的损失,调整为最大化某特定类别图像的期望损失,以实现扰动的通用性;其次,为提高对抗样本的不易察觉性,本发明设置多目标优化函数,使特定类别的图像被错误识别的同时,保证其他类别的图像不受干扰影响,仍能被正确决策;最后,在隐蔽性方面,经前期实验发现,传统的梯度方法能够较快地产生具有对抗效果的扰动,而低频噪声往往更隐蔽更稳定,因此,本发明在使用传统梯度方法生成初步的对抗扰动后,进一步采用低通滤波器来消除通用扰动中的高频尖锐噪音,在实现通用攻击的同时保证对抗样本的隐蔽性。

Patent Agency Ranking