-
公开(公告)号:CN115146698A
公开(公告)日:2022-10-04
申请号:CN202210528117.1
申请日:2022-05-16
Applicant: 北京理工大学
Abstract: 本发明涉及cache侧信道攻击的双源信息检测与局部重映射防御方法,属于计算机与信息科学技术领域。本发明首先为每个申请保护的进程分配一个大于0的标签;当存在受保护进程时,调用双源信息检测模块,分为性能特征检测和访问行为检测两个子模块,前者通过系统时序运行性能特征判断是否存在攻击,后者通过每个cache组内的访问行为检测是否存在攻击;当两个子模块同时检测到攻击时,对发生攻击的cache组进行局部重映射防御,将受保护进程的数据映射到未发生攻击的cache组。本发明相比于单源信息检测方法,构建双源信息检测模块挖掘实时攻击信息,提高了被攻击cache组的检测准确率,相比于全局重映射方法,仅对受保护进程及数据开展精准映射,有效提升系统运行效率。
-
公开(公告)号:CN115130678A
公开(公告)日:2022-09-30
申请号:CN202210535456.2
申请日:2022-05-17
Applicant: 北京理工大学
Abstract: 本发明涉及引入互联网设备流量的迁移学习IoT设备分类方法,属于物联网安全与机器学习领域。本发明首先对数据包进行数据流层面的特征提取和表达,得到原始特征向量;然后针对原始特征向量进行特征构建,并使用过滤器进行特征选择;利用TrAdaboost算法在互联网流量(源域)和IoT流量(目标域)的联合域上构建多个决策树分类器;最后通过集成学习的Boosting结合策略将各决策树的分类结果进行结合,输出设备分类结果。针对新建的IoT网络中新型物联网设备繁多,有标注流量数据稀少,现有的机器学习分类模型分类效果差的问题,本发明有效学习了互联网设备分类的“先验知识”,并将其应用于IoT设备分类模型的构建,有效提高了分类模型的准确率。
-
公开(公告)号:CN115080383A
公开(公告)日:2022-09-20
申请号:CN202210534831.1
申请日:2022-05-17
Applicant: 北京理工大学
Abstract: 本发明涉及一种模型状态差分的深度神经网络测试用例生成方法,属于计算机与信息科学技术领域。本发明首先利用特征热力图表征现有测试用例所触发的模型状态;然后对模型状态聚类分析,选取能够触发新神经元状态的用例作为生成新测试用例的模板;之后利用特征热力图差分结果确定用例特征的高覆盖率变换方向,以此为指导对差分结果进行像素级或区域级变换,构建新测试用例;最后利用新用例进行缺陷检测并计算其覆盖率,保留有助于覆盖率提升的用例用于后续迭代。本发明针对现有方法缺乏高覆盖率变换方向指导,运行效率和生成的测试用例质量低的问题提供了一种解决方案,生成的测试用例能够有效提升测试全面性,触发模型潜在缺陷。
-
公开(公告)号:CN113255225B
公开(公告)日:2022-09-20
申请号:CN202110617467.0
申请日:2021-05-28
Applicant: 北京理工大学
Abstract: 本发明涉及少样本元提升学习的列车运动状态估计方法,属于计算机与信息科学技术领域。主要为解决现有的列车运动状态建模方法无论是物理模型或是机器学习模型,均存在高成本建模问题,难以针对特定列车实现模型在线持续自适应以精确仿真,存在系统性仿真误差,而且难以满足列车自动驾驶系统的实时仿真等应用需求问题。本发明首先基于元数据采用元梯度提升学习算法建立模型,然后面向新任务,基于少量数据采用任务梯度提升学习算法,完成任务模型学习,实现对新列车的快速低成本精确仿真。结果表明本发明能较为准确的估计的列车运动状态,既减少了模型的训练成本,又提高了列车运动状态估计的精确度。
-
公开(公告)号:CN110737888B
公开(公告)日:2022-09-20
申请号:CN201910864463.5
申请日:2019-09-12
Applicant: 北京理工大学
IPC: G06F21/55
Abstract: 本发明涉及操作系统内核数据攻击行为的检测方法,属于计算机与信息科学技术领域。本发明目的是解决现有操作系统内核数据攻击行为检测方法存在的检测全面性不足、无法拦截攻击行为、依赖内核源代码等问题。本发明首先利用同步检测机制和语义重构技术定位并劫持特定内核函数,从而准确获取内核运行状态,计算当前内核进程的合法数据访问范围;然后利用虚拟化影子页表权限管理机制设置内存页的读写访问权限,将合法访问范围外的内核数据设置为只读或不可读写,对内核进程的数据访问范围进行强约束;最后使用“内存页异常”机制实现对攻击行为的同步检测从而对抗瞬态攻击,并利用虚拟机监视器拦截检测到的内核数据攻击行为。
-
公开(公告)号:CN115048983A
公开(公告)日:2022-09-13
申请号:CN202210535745.2
申请日:2022-05-17
Applicant: 北京理工大学
Abstract: 本发明涉及一种数据流形拓扑感知的人工智能系统对抗样本防御方法,属于人工智能安全技术领域。针对现有方法依赖已有少量对抗样本进行对抗训练或对目标分类器进行修改与再训练,缺乏对对抗样本生成机理的分析,存在无法及时应对新型对抗性攻击,泛化能力不足等问题,首先生成真实含噪目标数据集的数据流形,获取其拓扑信息;然后对生成模型进行拓扑感知训练,在定义的密度超水平集中调整隐向量分布使之与目标分布连通分量数保持一致,拟合生成模型与目标数据的分布;最后将错误分类的点投影到最近的流形上,反演受扰动的样本,纠正分类结果,实现强泛化能力和高稳健性的人工智能系统对抗样本防御效果。
-
公开(公告)号:CN113254930B
公开(公告)日:2022-08-05
申请号:CN202110594259.3
申请日:2021-05-28
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于R‑DBSCAN的PE恶意软件检测模型的后门对抗样本生成方法,属于计算机恶意软件检测领域。主要为了解决恶意软件检测模型在黑盒情形下攻击难度高的问题。本发明首先从公开数据集中获取PE样本并训练代理训练模型,采用SHAP值减维数据集;采用R‑DBSCAN方法对样本聚类,取每一聚类的中心节点作为采样点构建新的数据集;训练神经网络模型;分别输入恶意以及良性样本文件,依据神经网络内部神经元权值变化情况记录对分类结果影响较大的神经元;嵌入任意长度字符串至空PE文件,依据神经元权值变化情况取对其影响较大的字符串并记录该神经元;将触发器以嵌入原始恶意PE文件,修改标签达到对神经网络的对抗训练。
-
公开(公告)号:CN113238957B
公开(公告)日:2022-08-05
申请号:CN202110607268.1
申请日:2021-05-28
Applicant: 北京理工大学
Abstract: 本发明涉及智能化场景下流量监测系统的测试样本生成方法,属于计算机与信息科学技术领域。主要是为了解决现有的智能化场景下流量监测系统的测试样本生成方法存在未考虑神经元组合作用影响和生成条件严苛难以应用于实际测试的问题。本发明首先,构造一组种子测试集和三种变异模型,同时初始化组合覆盖列表;其次,对随机选择的一个种子测试,最大化原模型和变异模型结果置信度的差异性;接着,选择未达成组合覆盖条件的三元组,最小化使下层神经元发生状态转换的两个上层神经元的变动距离;最后,对以上两步进行联合优化,使用梯度上升算法求解,构造测试数据,并通过模型差异检测判断是否保留。重复执行如上步骤,直到种子数据集为空。
-
公开(公告)号:CN114547102A
公开(公告)日:2022-05-27
申请号:CN202210047190.7
申请日:2022-01-14
Applicant: 北京理工大学
IPC: G06F16/2455 , G06F16/242 , G06K9/62
Abstract: 本发明涉及基于梯度驱动数据生成的模型窃取攻击方法,属于计算机与信息科学技术领域。该方法先对数据集进行K‑means聚类;然后将聚类簇质心组成的查询数据集通过API输入到目标模型中得到每条数据对应的标签;接着使用数据‑标签对作为训练集训练替代模型;最后根据目标模型和替代模型间的输出差异构造目标函数,并基于函数梯度生成数据以迭代训练替代模型。本发明基于模型间输出差异梯度来生成数据并以此窃取目标模型,解决了模型窃取过程中目标模型训练集未知造成的替代模型准确率低的问题,减少了目标模型API调用的次数,提高了模型窃取效率。
-
公开(公告)号:CN109933801B
公开(公告)日:2022-03-29
申请号:CN201910225622.7
申请日:2019-03-25
Applicant: 北京理工大学
IPC: G06F40/295 , G06N3/04
Abstract: 本发明涉及基于预测位置注意力的双向LSTM命名实体识别方法,属于自然语言处理与机器学习领域。主要为了解决现有的基于注意力机制的命名实体识别方法输入文本组成要素单一的问题和特征抽取过程中未利用字符序列前后顺序位置信息的问题。本发明首先利用LSTM学习得到字符、词、句三种不同级别的特征向量表示,组合构成混合特征向量;再使用BLSTM模型对混合特征向量进行编码提取全局文本信息,在解码阶段使用基于预测对齐位置的注意力机制的CNN模型来提取文本局部信息,得到的特征向量序列用于判别标签值;最后根据标签值输出文本中的命名实体。在SIGHAN bakeoff‑3 MSRA中文命名实体识别语料上实验,结果表明本发明能达到较好的识别效果。
-
-
-
-
-
-
-
-
-