-
公开(公告)号:CN111460443B
公开(公告)日:2022-09-23
申请号:CN202010473432.X
申请日:2020-05-28
Applicant: 南京大学
Abstract: 本发明公开一种联邦学习中数据操纵攻击的安全防御方法,包括以下几个步骤:步骤1,中心服务器接收用户上传的本地模型参数,计算每个用户上传的本轮本地模型参数的相似程度及每个用户对应的融合系数;所述本地模型参数为用户采用私有训练数据训练一轮后的本地模型参数;步骤2,中心服务器接收到本地用户一个周期的本地模型参数后,根据融合系数计算每个用户的本地模型参数的加权平均值得到全局模型参数,所述一个周期为预设的本地模型参数更新轮数;步骤3,将全局模型参数下发至对应的用户,用户收到全局模型参数后更新本地模型参数。
-
公开(公告)号:CN114549933B
公开(公告)日:2025-04-25
申请号:CN202210160129.3
申请日:2022-02-21
Applicant: 南京大学
IPC: G06V10/774 , G06V10/764 , G06V10/25 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/045 , G06N3/094 , G06N3/096
Abstract: 本发明公开了一种基于目标检测模型特征向量迁移的对抗样本生成方法,包括如下步骤:步骤S1、卷积神经网络特征向量迁移;步骤S2、对抗噪声的生成,步骤S3、对抗样本攻击效果评估。本发明对抗样本在目标检测等深度学习模型中攻击效果更强,并且在兼顾攻击隐蔽性的前提下具备更好的可迁移性。本发明对抗样本生成方法揭示了特征向量在目标检测模型的对抗机制中发挥的重要作用,验证了本发明所述的对抗样本的攻击威胁,能够启发探索鲁棒性目标检测算法领域的研究,以此设计出新的防御机制,对于目标检测模型在实际生活中的应用有着重要意义。
-
公开(公告)号:CN114549933A
公开(公告)日:2022-05-27
申请号:CN202210160129.3
申请日:2022-02-21
Applicant: 南京大学
IPC: G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于目标检测模型特征向量迁移的对抗样本生成方法,包括如下步骤:步骤S1、卷积神经网络特征向量迁移;步骤S2、对抗噪声的生成,步骤S3、对抗样本攻击效果评估。本发明对抗样本在目标检测等深度学习模型中攻击效果更强,并且在兼顾攻击隐蔽性的前提下具备更好的可迁移性。本发明对抗样本生成方法揭示了特征向量在目标检测模型的对抗机制中发挥的重要作用,验证了本发明所述的对抗样本的攻击威胁,能够启发探索鲁棒性目标检测算法领域的研究,以此设计出新的防御机制,对于目标检测模型在实际生活中的应用有着重要意义。
-
公开(公告)号:CN111460443A
公开(公告)日:2020-07-28
申请号:CN202010473432.X
申请日:2020-05-28
Applicant: 南京大学
Abstract: 本发明公开一种联邦学习中数据操纵攻击的安全防御方法,包括以下几个步骤:步骤1,中心服务器接收用户上传的本地模型参数,计算每个用户上传的本轮本地模型参数的相似程度及每个用户对应的融合系数;所述本地模型参数为用户采用私有训练数据训练一轮后的本地模型参数;步骤2,中心服务器接收到本地用户一个周期的本地模型参数后,根据融合系数计算每个用户的本地模型参数的加权平均值得到全局模型参数,所述一个周期为预设的本地模型参数更新轮数;步骤3,将全局模型参数下发至对应的用户,用户收到全局模型参数后更新本地模型参数。
-
-
-