-
公开(公告)号:CN114357172A
公开(公告)日:2022-04-15
申请号:CN202210016021.7
申请日:2022-01-07
Applicant: 北京邮电大学
IPC: G06F16/35 , G06F40/30 , G06F40/284 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于ERNIE‑BiGRU‑Attention的谣言检测方法,借助了ERNIE模型以及双向GRU加上注意力机制模型,对一条最新发布的新闻进行内容真假性的判断,通过神经网络来预测其结果。ERNIE语料库包含了百度新闻、百度百科、百度词条等大范围的语料,非常契合谣言检测领域,解决了现有模型没有对新闻主题领域进行泛化的缺点。后续,我们加入BiGRU层和注意力机制层,能够更好地掌握ERNIE预处理后文本的关键实体信息,从而获得更好的泛化能力和更高的准确率。
-
公开(公告)号:CN118118251A
公开(公告)日:2024-05-31
申请号:CN202410345917.9
申请日:2024-03-25
Applicant: 北京邮电大学
IPC: H04L9/40
Abstract: 本发明针对网络安全领域中多个弱点利用问题,提出了一种网络安全分析方法。具体做法包括建立全面的网络安全管理制度,实时监测服务终端设备和客户端设备的完整性,以应对网络安全突发事件。该方法基于不同网络段的检测机制,建立预警检测系统,用于预测当前或未来可能发生的攻击并进行网络威胁评估,进而采取适当的安全策略应对入侵行为。本研究所提出的实时网络安全威胁预警分析方法,通过攻击图分析网络漏洞,以确保系统的安全运行。同时,该方法具有粗粒度和针对性描述攻击的特点,并建立了弱点相关性矩阵,从而能够快速发现并修复网络中的弱点。
-
公开(公告)号:CN116363436A
公开(公告)日:2023-06-30
申请号:CN202310356710.7
申请日:2023-04-04
Applicant: 北京邮电大学
IPC: G06V10/764 , G06V10/82 , G06V10/44 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于SwinT‑CNN模型的加密流量分类方法及装置,包括以下步骤:S1、将待分类的加密流量数据转化为二维矩阵,并生成灰度图像,将二维矩阵作为SwinT‑CNN模型的输入向量Vinput;S2、将二维矩阵输入SwinT‑CNN模型,SwinT‑CNN模型包括改进的CNN模块和Swin T模块,先通过改进的CNN模块提取数据的局部空间特征,输出处理后的数据Vcnn,再将Vcnn输入Swin T模块,对局部空间特征进行注意力机制计算,得到数据的全局空间特征,输出加权组合特征向量VswinT;S3、最后通过一个由Softmax激活的全连接层作出预测,计算多分类交叉熵损失来产生分类结果。本发明将改进的CNN模块和从Swin Transformer中提取的Swin模块结合,能够更有效地捕捉数据中的局部和全局特征,提高加密流量分类的准确率。
-
公开(公告)号:CN116047901A
公开(公告)日:2023-05-02
申请号:CN202211606055.8
申请日:2022-12-14
Applicant: 北京邮电大学
IPC: G05B13/04
Abstract: 本发明提出了一种基于自动门控循环单元的鲁棒时空轨迹建模方法,构建一个基于自编码器门控循环单元的通用协作学习框架,该框架由基于自动编码器(autoencoder,AE)的自表示网络(self‑representation network,SRN)用于鲁棒的轨迹特征学习和基于门控递归单元(gated recurrent unit,GRU)的分类网络组成,该网络与SRN共享信息用于协作学习和严格防御对抗性样本攻击。此外,由于GRU可以利用门控单元有效处理时序信息,并保留信息的长期依赖性,因此整体建模方法在防御白盒和黑盒攻击方面表现良好,尤其是在黑盒攻击中,其性能优于广泛使用的方法。此外,在Geolife和北京出租车轨迹数据集上的大量实验表明,所提出的方法可以提高模型在对抗性样本环境中的鲁棒性,而不会对干净的样本造成显著的性能损失。
-
公开(公告)号:CN115221947A
公开(公告)日:2022-10-21
申请号:CN202210727770.0
申请日:2022-06-22
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于预训练语言模型的鲁棒的多模态主动学习方法,采用两阶段的混合策略,首先在不确定性度量方面采用基于动量蒸馏的掩码语言损失作为不确定性代理,其继承了ALPS这类冷启动的主动学习策略将掩码语言损失作为度量标准的优点,从输入质量本身考虑样本的不确定性。同时充分考虑样本受具体下游任务的影响,提出一种动量蒸馏方法度量预训练损失在具体任务上的变化。此外针对主动选择策略容易受集体异常值影响的问题,采用了模型训练时预测的伪标签概率和其他标签概率的间距作为异常值指示器,并将这一异常值指示器的值作为聚类初始化选择的一个依据,从而在多样性聚类时减少了异常值的选择,提升了主动选择算法的鲁棒性。
-
公开(公告)号:CN114372530A
公开(公告)日:2022-04-19
申请号:CN202210024041.9
申请日:2022-01-11
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于深度自编码卷积网络的异常流量检测方法及系统,方法包括步骤:S1、使用预处理后的数据训练多个深度自编码器;S2、将预处理完的数据输入多个自编码器,得到多个不同的降维特征向量;S3、将得到的不同降维特征向量与预处理完的数据进行特征拼接,并用其训练卷积神经网络得到最优的分类网络模型;S4、将预处理后的未知数据和自编码器模块的输出拼接后输入到训练好的网络模型,使用softmax激活函数对卷积神经网络输出进行分类,得到预测结果。检测系统包括数据预处理模块、深度自编码器模块、卷积神经网络模块和系统管理模块。本发明解决了传统异常流量检测方案对于专家系统的依赖以及传统流量检测模型准确率较低且泛化能力差的问题。
-
公开(公告)号:CN114357172B
公开(公告)日:2024-08-09
申请号:CN202210016021.7
申请日:2022-01-07
Applicant: 北京邮电大学
IPC: G06F16/35 , G06F40/30 , G06F40/284 , G06N3/0442 , G06N3/045 , G06N3/082
Abstract: 本发明公开了一种基于ERNIE‑BiGRU‑Attention的谣言检测方法,借助了ERNIE模型以及双向GRU加上注意力机制模型,对一条最新发布的新闻进行内容真假性的判断,通过神经网络来预测其结果。ERNIE语料库包含了百度新闻、百度百科、百度词条等大范围的语料,非常契合谣言检测领域,解决了现有模型没有对新闻主题领域进行泛化的缺点。后续,我们加入BiGRU层和注意力机制层,能够更好地掌握ERNIE预处理后文本的关键实体信息,从而获得更好的泛化能力和更高的准确率。
-
公开(公告)号:CN118070282A
公开(公告)日:2024-05-24
申请号:CN202410190878.X
申请日:2024-02-20
Applicant: 北京邮电大学
IPC: G06F21/56 , G06N3/042 , G06N3/0442 , G06N3/0495 , G06N3/084 , G06F17/16
Abstract: 本发明公开了一种基于异构知识蒸馏的内部威胁异常检测方法,包括如下步骤:(1)构建以加权图神经网络为基础的结构化信息教师模型和以双向长短时记忆网络为基础的时序信息学生模型;(2)构建知识蒸馏机制,温度放缩改造教师模型输出soft logits,增加权重改造交叉熵损失函数,网格搜索完成超参数优化;(3)异构知识蒸馏输入数据异构同步为图数据格式和三维张量数据格式,保证知识蒸馏过程中数据一致性;(4)部署学生模型用于实时检测,教师模型非实时蒸馏更新学生模型。本发明在传统的基于深度学习的内部威胁检测基础上加入异构知识蒸馏,且同时考虑到了结构信息和序列信息,在保证轻量型模型体积不变化的前提下提升模型的准确率和泛化能力。
-
公开(公告)号:CN117786694A
公开(公告)日:2024-03-29
申请号:CN202311717652.2
申请日:2023-12-14
Applicant: 北京邮电大学
Abstract: 一种人工智能模型运行安全可信执行环境架构及方法,属于人工智能模型安全保护领域。该架构包括TEE管道、密钥管理模块、密码模块、计算模块和控制器。通过TEE通道实现数据传输和安全检测,保证数据的安全性和有效性;计算模块用于模型的训练、部署和执行,独立的密码模块和密钥管理模块用于对训练好的模型进行加密以及对外部环境传入的加密模型进行解密,使得人工智能模型的安全性大大提高。且密钥的生成过程、密钥存储、密码模块都集成在可信执行环境架构中,密钥不会被泄露,模型的运行同样受到可信执行环境架构的保护,有效杜绝了模型被攻击者窃取和修改的可能。本发明运算效率高、安全性高、可信任性强、灵活性高、兼容性好且成本低。
-
公开(公告)号:CN117313100A
公开(公告)日:2023-12-29
申请号:CN202311153868.0
申请日:2023-09-08
Applicant: 北京邮电大学
Abstract: 本发明公开了一种面向联邦学习的成员推理攻击方法,通过训练过程中的模型的多个训练轮次信息,观察模型参数变化规律,充分加强对训练过程中纵向信息的利用,并通过最后一层的偏差参数完成攻击。同时针对联邦学习系统中的两种模型设计局部攻击和全局攻击,以评估联邦学习的隐私泄露风险。对于局部攻击,基于神经网络充分学习成员数据与非成员数据差异,实现成员和非成员数据的区分。对于全局攻击,基于细粒度差异比较实现成员数据的来源推断。此外,本发明在不干扰模型训练的情况下进行攻击,不存在被系统检测的风险,通过特征放大操作增强了成员数据与非成员数据之间的偏差变化差异,在较少的参数下实现了更强攻击效果,方法具有高效性。
-
-
-
-
-
-
-
-
-