一种基于逐层相关性传播的对抗样本检测方法和装置

    公开(公告)号:CN113378985B

    公开(公告)日:2024-10-15

    申请号:CN202110761503.0

    申请日:2021-07-06

    发明人: 陈晋音 吴长安

    摘要: 本发明公开了一种基于逐层相关性传播的对抗样本检测方法和装置,包括:获取图像样本,利用图像样本训练深度学习模型;将良性图像样本输入至训练好的深度学习模型,并计算每个良性图像样本的相关性分数,其中,良性图像样本的相关性分数由像素点的相关性分数计算得到,像素点的相关性分数依据神经元的相关性,反向逐层传递计算得到;统计多数良性图像样本的相关性分数分布确定对抗样本的判别依据;将待测图像样本输入至训练好的深度学习模型,计算待测图像样本的相关性分数,依据判别依据检测待测图像样本是否为对抗样本。以实现对各类深度学习模型的各类对抗样本的快速准确检测。

    联邦学习的中毒攻击检测方法、装置及设备

    公开(公告)号:CN112528281B

    公开(公告)日:2024-08-27

    申请号:CN202011463000.7

    申请日:2020-12-11

    IPC分类号: G06F21/56 G06N3/045 G06N3/098

    摘要: 本申请提供一种联邦学习的模型中毒攻击检测方法、装置及设备,涉及人工智能技术领域。该方法包括:接收参与联邦学习的至少一个终端设备发送的终端设备侧模型的模型参数;根据各终端设备侧模型的模型参数进行聚合处理,得到服务器侧的聚合模型;对聚合模型进行反演,得到聚合模型的反演数据集;根据聚合模型的反演数据集生成中毒补丁;根据中毒补丁,确定聚合模型是否是正常模型。该方法可以保证对联邦学习的模型中毒攻击检测的效率,还可以保证各终端设备中的本地数据的安全隐私。

    一种面向深度学习模型偏见中毒攻击的防御方法

    公开(公告)号:CN113536298B

    公开(公告)日:2024-04-30

    申请号:CN202110652511.1

    申请日:2021-06-11

    摘要: 本发明公开了一种面向深度学习模型偏见中毒攻击的防御方法,所述方法包括以下步骤:(1)获取原始样本数据集;(2)对原始样本数据集进行分块划分为子训练集,(3)使用基本分类器训练子训练集;(4)评估每个基本分类器的输入,并计算每个基本分类器分类正确的数量;(5)筛选出分类准确度最高的基本分类器,利用该分类器对深度学习模型再次进行训练,最终得到新训练的深度学习模型。上述方法通过使用散列函数对原始样本数据集中的数据个体样本进行映射,提升了深度学习模型防御偏见中毒攻击的能力。

    基于无偏深度迁移学习的视频目标识别方法

    公开(公告)号:CN111860441B

    公开(公告)日:2024-03-29

    申请号:CN202010761599.6

    申请日:2020-07-31

    摘要: 本发明公开了一种基于无偏深度迁移学习的视频目标识别方法,包括:(1)构建源域图像集和目标域图像集;(2)构建偏见属性预测模型;(3)构建基于迁移学习的训练框架,包括与偏见属性预测模型结构相同的两条支路,并在每条支路的相同位置增加一个适应层,其中,第一支路的输入为以源域图像和任务标签组成的样本第二支路的输入为视频帧图像;(3)构建训练框架的损失函数,包括偏见属性预测模型的偏见属性分类损失、第一支路的任务属性分类损失以及两条支路的适应层之间的MMD距离损失;(4)对训练框架进行训练,提取参数确定的第二支路作为无偏视频目标识别模型;(5)将待识别视频帧输入至无偏视频目标识别模型,输出目标识别结果。

    基于神经元激活率的对抗攻击防御方法

    公开(公告)号:CN113283599B

    公开(公告)日:2024-03-19

    申请号:CN202110657925.3

    申请日:2021-06-11

    摘要: 本发明公开了一种基于神经元激活率的对抗攻击防御方法,包括:1)获取图像数据集并进行预处理,构建训练集和测试集;2)构建CNN网络结构的分类器模型;3)构建二分类判别器D,对分类器模型关于输入本x的输出N进行判定;4)根据分类器模型和二分类判别器D的损失函数构建整体的损失函数,确定整体优化目标;采用训练集对整体模型进行联合训练,当整体的损失函数收敛时,停止训练并保存模型;5)输入测试集对训练后的分类器模型进行测试,若分类准确率低于阈值,则修改整体损失函数的λ,按步骤4)再次进行训练,直至分类准确率高于阈值。本发明的防御方法具有良好的适用性和准确率,对对抗攻击有良好的防御效果。

    一种面向后门攻击的防御方法

    公开(公告)号:CN113283590B

    公开(公告)日:2024-03-19

    申请号:CN202110656133.4

    申请日:2021-06-11

    摘要: 本发明涉及人工智能技术领域,具体公开一种面向后门攻击的防御方法,包括如下步骤:步骤1,获取图神经网络模型Moracle及其训练数据集Dataoracle;步骤2,对训练数据集Dataoracle进行预处理;步骤3,构建生成器网络G,得到预测图Ypred;步骤4,构建鉴别器网络D,并输出图数据二分类的结果;步骤5,防御模型的训练,完成后门攻击的防御网络模型搭建;步骤6,将删减连边处理后的任务数据Dreal输入到生成器网络G中进行数据重建,得到任务结果。本发明的防御方法能直接破坏插入在图数据中的触发器结构,导致它无法取得该有的效果,但又不影响正常样本,模型对于输入正常样本仍然可以表现出应有的性能。

    面向强化学习的检测防御异常数据方法和装置

    公开(公告)号:CN111753300B

    公开(公告)日:2024-03-19

    申请号:CN202010608352.0

    申请日:2020-06-29

    摘要: 本发明公开了一种面向强化学习的检测防御异常数据方法和装置,包括以下步骤:采集场景a下小车正常驾驶状态作为样本数据,对样本数据采用PCA降维处理,得到前n个特征值的累计贡献率α以及变换矩阵P;基于DDPG算法建立场景a下自动驾驶训练模型,预训练自动驾驶训练模型,将状态转换过程存入经验回放缓冲区D;采集场景a下自动驾驶训练模型训练过程中的状态st,利用变换矩阵P对状态st降维处理,计算前n个特征值的累计贡献率α’;若||α‑α’||≥∈,则判定st异常,向对应的奖励值rt增加惩罚项#imgabs0#并将更新后的状态转换过程存储在经验回放缓冲区D中;根据更新后的奖励值计算损失函数,利用损失函数更新主网络的参数。

    一种基于强化学习的动态链路预测模型鲁棒性增强方法

    公开(公告)号:CN112580728B

    公开(公告)日:2024-02-20

    申请号:CN202011532408.5

    申请日:2020-12-22

    发明人: 刘毅 王珏 陈晋音

    摘要: 本发明提供了一种基于强化学习的动态链路预测模型鲁棒性增强方法,包括:(1)对原始图数据进行特征嵌入,提取嵌入向量;(2)将特征嵌入后的嵌入向量作为马尔科夫决策过程中的状态进行建模,输出动作为修改的连边数;(3)使用强化学习DDPG的训练策略,逐图增删连边,直到最后一张;(4)计算处理后的图数据,输入到动态链路预测模型进行准确率预测,得到回报值;(5)重复步骤(3)~(4),直到设定的训练轮数,得到鲁棒性增强的图数据。利用本发明的方法,修改后的图数据在模型上可以保持良好的性能,同时具有强鲁棒性,对动态链路预测模型应用到安全关键的领域中具有重要的理论和实践意义。

    一种基于MAML元学习算法的多特征真假视频检测方法

    公开(公告)号:CN112580521B

    公开(公告)日:2024-02-20

    申请号:CN202011528465.6

    申请日:2020-12-22

    摘要: 本发明公开了一种基于MAML元学习算法的多特征真假视频检测方法,包括:(1)采集预训练数据集以及局部训练数据集;(2)对预训练数据集和局部训练数据集进行处理;(3)对数据类别进行one‑hot编码,获取对应的类别标签序列;据集对模型M进行训练,采用MAML元学习算法,得到预训练好的模型Mt;(5)将局部训练数据集分别作为模型Mt的输入,得到训练好的模型M1、模型M2和模型M3;(6)从预训练数据集的视频数据中获取光流图,输入到模型Mt中,得到训练好的模型M4;(7)将训练好的模型M1、模型M2、模型M3和模型M4进行测试和应用。本发明可以对脸部的局部特征进行训练,不需要大量的训练数据集。(4)构建引入注意力机制的模型M,利用预训练数