-
公开(公告)号:CN111898731A
公开(公告)日:2020-11-06
申请号:CN202010589589.9
申请日:2020-06-24
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种基于偏见的通用对抗补丁生成方法,同时公开了相应的通用对抗补丁生成装置。本发明基于模型的感知偏见理念,在难样本基础上生成各先验补丁;难样本为目标模型未有效识别的样本;基于模型的语义偏见理念,针对目标模型生成各类原型;根据各先验补丁和各类原型,通过目标模型,生成通用对抗补丁。本发明利用深度神经网络模型的感知偏见和语义偏见生成更具攻击力的通用对抗补丁,有效提高对抗样本的攻击性和通用性,框架结构简单,可随意插拔,并能提升其他类似的对抗补丁生成方法的效果,具有较高的应用价值。
-
公开(公告)号:CN113537463B
公开(公告)日:2025-04-25
申请号:CN202110751810.0
申请日:2021-07-02
Applicant: 北京航空航天大学
IPC: G06V20/58 , G06V10/764 , G06V10/82 , G06N3/0475 , G06N3/045 , G06N3/084 , G06N3/094
Abstract: 本发明公开了一种基于数据扰动的对抗样本防御方法与装置。该方法包括如下步骤:将能够干扰车辆识别路牌的像素作为数据扰动添加至输入样本中,构成防御样本;将防御样本输入目标神经网络模型进行优化,输出训练完成的数据扰动;将训练完成的数据扰动加入识别神经网络待识别的样本中,供识别神经网络进行识别;该识别神经网络为植入自动驾驶车辆中的神经网络模型。本发明可以提升神经网络模型的鲁棒性,特别适合在自动驾驶场景中应用。
-
公开(公告)号:CN114943641A
公开(公告)日:2022-08-26
申请号:CN202210886768.8
申请日:2022-07-26
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种基于模型共享结构的对抗纹理图像生成方法和装置。该方法包括如下步骤:将输入的原始样本图像转化为图像块序列,图像块序列输入到视觉转换器模型,进行自注意力机制运算,得到图像块序列之间的注意力不确定性权重;根据注意力不确定性权重,确定各图像块的扰动像素分配数量;将原始样本图像中的非零像素块的像素值置零,根据像素值置零前后的变化计算非零像素块对应的嵌入敏感度;根据扰动像素分配数量和嵌入敏感度生成对抗纹理图像。该方法所生成的对抗纹理图像是基于各种视觉转换器模型的共享结构,具有优越的跨模型迁移性。
-
公开(公告)号:CN107391598A
公开(公告)日:2017-11-24
申请号:CN201710522318.X
申请日:2017-06-30
Applicant: 北京航空航天大学
IPC: G06F17/30
Abstract: 本发明公开了一种威胁情报自动生成方法及系统,所述方法包括:获取与工业控制系统安全相关联的数据,所述数据至少包括第一类数据、第二类数据、第三类数据;针对所述第一类数据,对所述数据进行情报处理统计,并基于统计结果进行实体及关系的抽取;将抽取出来的内容存储至图数据库中;针对所述第二类数据,对所述数据进行实体识别,并基于识别结果进行关系抽取;将抽取出来的内容存储至图数据库中;针对所述第三类数据,对所述数据进行情报处理统计,并将统计结果存储至情报数据库中;利用第一类算法对所述图数据库中存储的内容进行分析,以及利用第二类算法对所述情报数据库中存储的内容进行分析,基于分析结果生成威胁情报。
-
公开(公告)号:CN115083001B
公开(公告)日:2022-11-22
申请号:CN202210870504.3
申请日:2022-07-22
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种基于图像敏感位置定位的对抗补丁生成方法与装置。该方法包括如下步骤:获取原始图像,将原始图像作为视觉转换器模型的输入样本图像;其中,视觉转换器模型包括奇异值分析模块和全局注意力优化模块;奇异值分析模块将输入样本图像分割为互不重叠的图像块,并对互不重叠的图像块进行奇异值分析,根据奇异值生成重建图像;计算重建图像的局部敏感性,根据局部敏感性选择重建图像中敏感性最强的图像块作为初始对抗补丁,根据初始对抗补丁生成对抗样本图像;将对抗样本图像和原始图像输入到全局注意力优化模块,获得原始图像的最终对抗补丁。利用本发明,可以提高对抗样本图像的攻击性能。
-
公开(公告)号:CN115330991A
公开(公告)日:2022-11-11
申请号:CN202210242831.4
申请日:2022-03-11
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种面向真实世界应用的鲁棒视觉增强方法与装置。该方法包括如下步骤:将初始补丁进行局部特征提取优化和全局感知相关性优化后,生成防御补丁;将添加了防御补丁的图像输入神经网络进行推理。本发明将添加了防御补丁的图像输入神经网络进行推理,可以提高深度神经网络的鲁棒性。并且,利用本发明无需修改模型端的框架,可以减少再训练的成本。
-
公开(公告)号:CN114943641B
公开(公告)日:2022-10-28
申请号:CN202210886768.8
申请日:2022-07-26
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种基于模型共享结构的对抗纹理图像生成方法和装置。该方法包括如下步骤:将输入的原始样本图像转化为图像块序列,图像块序列输入到视觉转换器模型,进行自注意力机制运算,得到图像块序列之间的注意力不确定性权重;根据注意力不确定性权重,确定各图像块的扰动像素分配数量;将原始样本图像中的非零像素块的像素值置零,根据像素值置零前后的变化计算非零像素块对应的嵌入敏感度;根据扰动像素分配数量和嵌入敏感度生成对抗纹理图像。该方法所生成的对抗纹理图像是基于各种视觉转换器模型的共享结构,具有优越的跨模型迁移性。
-
公开(公告)号:CN115081593A
公开(公告)日:2022-09-20
申请号:CN202210689017.7
申请日:2020-06-24
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种基于偏见的通用对抗补丁生成方法,同时公开了相应的通用对抗补丁生成装置。本发明基于模型的感知偏见理念,在难样本基础上生成各先验补丁;难样本为目标模型未有效识别的样本;基于模型的语义偏见理念,针对目标模型生成各类原型;根据各先验补丁和各类原型,通过目标模型,生成通用对抗补丁。本发明利用深度神经网络模型的感知偏见和语义偏见生成更具攻击力的通用对抗补丁,有效提高对抗样本的攻击性和通用性,框架结构简单,可随意插拔,并能提升其他类似的对抗补丁生成方法的效果,具有较高的应用价值。
-
公开(公告)号:CN115083001A
公开(公告)日:2022-09-20
申请号:CN202210870504.3
申请日:2022-07-22
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种基于图像敏感位置定位的对抗补丁生成方法与装置。该方法包括如下步骤:获取原始图像,将原始图像作为视觉转换器模型的输入样本图像;其中,视觉转换器模型包括奇异值分析模块和全局注意力优化模块;奇异值分析模块将输入样本图像分割为互不重叠的图像块,并对互不重叠的图像块进行奇异值分析,根据奇异值生成重建图像;计算重建图像的局部敏感性,根据局部敏感性选择重建图像中敏感性最强的图像块作为初始对抗补丁,根据初始对抗补丁生成对抗样本图像;将对抗样本图像和原始图像输入到全局注意力优化模块,获得原始图像的最终对抗补丁。利用本发明,可以提高对抗样本图像的攻击性能。
-
公开(公告)号:CN116486190A
公开(公告)日:2023-07-25
申请号:CN202210177193.2
申请日:2022-02-24
Applicant: 北京航空航天大学
IPC: G06V10/774 , G06V20/52 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/084 , G06N3/094
Abstract: 本发明公开了一种面向人群计数场景的对抗攻击方法和装置。该方法包括如下步骤:随机缩放对抗样本,得到可微插值模块;提取人群计数模型对于可微插值模块的注意力表征,得到对应表征模型注意力的热力图;通过可微插值模块和对应表征模型注意力的热力图引入损失函数,优化对抗样本,从而攻击人群计数模型。本发明解决了传统对抗攻击中出现的跨模型迁移能力差的问题,使人群计数场景中的对抗攻击效果远优于现有技术。
-
-
-
-
-
-
-
-
-