-
公开(公告)号:CN113672735B
公开(公告)日:2024-01-19
申请号:CN202111048789.4
申请日:2021-09-08
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于主题感知异质图神经网络的链接预测方法,旨在进一步挖掘基于结构语义的细粒度主题感知语义,用于HGs中的多方面主题感知表示学习。具体地,本发明首先应用多方面转换矩阵将不同类型节点的向量表示映射到多个主题感知子空间中;然后应用了交替的两步聚合机制,包括元路径内分解和元路径间合并,来学习每个目标节点的多方面主题感知表示;此外引入主题先验指导模块,它利用主题建模从非结构化文本内容中获取全局统计知识,有助于指导上下文聚合,作为一个正则化器,该模块使得所推断的主题感知子空间更加正交化,并提高所学多方面主题感知表示的可解释性。
-
公开(公告)号:CN112862093B
公开(公告)日:2024-01-12
申请号:CN202110125520.5
申请日:2021-01-29
Applicant: 北京邮电大学
IPC: G06N3/082 , G06N3/063 , G06N3/0464
Abstract: 本发明实施例提供了一种图神经网络训练方法及装置,涉及深度学习领域。上述方法包括:获得未标记图数据集和第一标记图数据集;将未标记图数据集作为训练样本,通过对预设的图神经网络模型进行训练,调整图神经网络模型的参数,得到第一图神经网络模型;将第一标记图数据集作为训练样本,通过对所述第一图神经网络模型进行训练,调整第一图神经网络模型的参数,得到第二图神经网络模型;将图神经网络的待应用场景的第二标记图数据集作为训练样本,通过对第二图神经网络模型进行训练,调整第二图神经网络模型的参数,得到应用于待应用场景的图神经网络。应用本实施例提供的方案进行图神经网络训练时,提高了图神经网络训练的效率。
-
公开(公告)号:CN113723008B
公开(公告)日:2023-09-15
申请号:CN202111050120.9
申请日:2021-09-08
Applicant: 北京邮电大学
IPC: G06F30/27 , G06F111/04 , G06F111/08
Abstract: 本发明公开了一种基于几何非纠缠变分自动编码器学习几何解耦表示的方法,首次尝试学习几何解耦表示,并提出了一个几何解耦变分自动编码器模型(GDVAE),将不同几何空间中的分离表示投影到一个共享的潜在空间中,从而可以利用一个通用的度量来计算接近度,可以学习不同几何特征下的特征,结合不同几何以获得更为有效的特征表示,并通过实验结果证明了所提出的GDVAE模型的有效性。
-
公开(公告)号:CN113688600B
公开(公告)日:2023-07-28
申请号:CN202111049168.8
申请日:2021-09-08
Applicant: 北京邮电大学
IPC: G06F40/126 , G06F40/194 , G06F40/30 , G06N3/048 , G06N3/0499 , G06N3/08
Abstract: 本发明公开了一种基于主题感知注意力网络的信息传播预测方法,将主题上下文和传播历史上下文整合到用户表示中进行预测。主题上下文支持针对特定主题的传播模式建模,而传播历史上下文可以进一步分解为用户依赖建模和位置依赖建模。随后,我们可以使用编码得到的用户上下文来构建多主题下的用户表示。然后,我们通过一个时间衰减聚合模块进一步集成用户表示,从而获取级联表示。其中,所有这些模块都是由信息传播的特征驱动的。因此,我们提出的基于主题感知注意力网络的信息传播预测方法可以更好地拟合真实世界的扩散数据,并更准确地预测。此外,在传统的主题感知模型中需要使用预定义好的主题分布,而采用本发明方法主题可以自动学习。
-
公开(公告)号:CN114298279A
公开(公告)日:2022-04-08
申请号:CN202111633979.2
申请日:2021-12-29
Applicant: 北京邮电大学
IPC: G06N3/04 , G06N3/08 , G06K9/62 , G06V10/764
Abstract: 本发明公开了一种多设计维度的异质图神经网络的设计空间构建方法,提出统一的异质图神经网络框架,并基于此统一框架定义了异质图神经网络的设计空间。本发明弥补了之前的工作只从模型级评测异质图神经网络的缺点,为研究者提供了模块级评测的视角,进一步可以剖析哪一些设计维度在模型的性能中起到重要作用。我们还为异质图神经网络的设计空间构建了平台Space4HGNN,并基于此平台提炼出设计模型的原则性指导,提供了标准的评测和模块化的异质图神经网络实现。该平台为研究者提供了模块级的评测,可以提供给用户简易的接口,帮助他们评测不同设计维度的影响。
-
公开(公告)号:CN112966763A
公开(公告)日:2021-06-15
申请号:CN202110285723.0
申请日:2021-03-17
Applicant: 北京邮电大学
Abstract: 本申请实施例提供的一种分类模型的训练方法、装置、电子设备及存储介质,应用于信息技术领域,通过根据样本异质图生成样本异质图提取语义图并生成关系子图,根据关系子图得到待分类目标的分类结果,并计算当前损失,根据当前损失对待训练的异质图结构学习网络和待训练的图神经网络的参数同时进行调整,从而可以提高模型训练的效率。
-
公开(公告)号:CN110083766B
公开(公告)日:2021-05-14
申请号:CN201910342766.0
申请日:2019-04-26
Applicant: 北京邮电大学
IPC: G06F16/9535 , G06F16/951
Abstract: 本发明实施例提供了一种基于元路径引导嵌入的查询推荐方法及装置,其中方法包括:获取目标物品信息;提取包含目标物品名称的短语;将短语拆分为多个词语;在预设的统一词语嵌入词典中查找不同词语组合后形成的短语所对应的短语嵌入;将将查找到的词语嵌入组合为短语嵌入,并将短语嵌入按照不同预设元路径进行逐阶聚合,得到不同的用户嵌入及查询嵌入;基于不同的用户嵌入,查询嵌入,以及用户原始静态特征,计算用户与不同查询的交互概率;将具有最大交互概率的查询推荐给用户。本发明实施例能够基于用户、物品、以及查询之间的交互按照不同的预设元路径进行逐阶聚合,使所推荐的查询更有可能符合用户的需求,从而提高推荐查询准确性。
-
公开(公告)号:CN112699938A
公开(公告)日:2021-04-23
申请号:CN202011604370.8
申请日:2020-12-30
Applicant: 北京邮电大学
Abstract: 本发明实施例提供了一种基于图卷积网络模型的分类方法及装置,获取目标对象的待处理特征数据,并输入至目标图卷积网络模型;目标图卷积网络模型包括多层感知器、卷积网络和特征变换层;通过多层感知器分别对每一目标对象的待处理特征数据进行非线性变换,得到该目标对象的第一特征数据;通过卷积网络,对各目标对象的第一特征数据进行特征提取,得到各目标对象的聚合特征数据;通过特征变换层分别对每一目标对象的聚合特征数据进行映射处理,得到该目标对象的类别标签;在预设的类别标签与类别的对应关系中,确定每一目标对象的类别标签对应的类别,作为该目标对象的类别。基于上述处理,可以提高确定出的目标对象的类别的准确性。
-
公开(公告)号:CN112468324A
公开(公告)日:2021-03-09
申请号:CN202011257060.3
申请日:2020-11-11
Applicant: 国网冀北电力有限公司信息通信分公司 , 北京邮电大学 , 国家电网有限公司
Inventor: 刘波 , 郝燕如 , 肖丁 , 石川 , 莫爽 , 彭柏 , 王艺霏 , 来骥 , 李信 , 张玙璠 , 马铭君 , 吴文睿 , 马跃 , 张少军 , 王东升 , 娄竞 , 于然 , 金燊 , 许大卫 , 万莹 , 聂正璞 , 李坚 , 李贤 , 孟德 , 常海娇 , 陈重韬 , 寇晓溪 , 尚芳剑 , 纪雨彤 , 赵阳 , 辛霆麟 , 李硕 , 张实君 , 王海峰
Abstract: 本发明实施例提供了一种基于图卷积神经网络的加密流量分类方法及装置,将待分类应用的加密流量数据拆分为多个流,并获取每个流的统计信息;其中,所述统计信息用于表明所述流的传输情况;将所获取的统计信息转换为图嵌入,作为流的嵌入;利用异质图卷积神经网络,获取所述待分类应用对应的通信图的嵌入;利用同质图卷积神经网络,获取所述待分类应用对应的流图的嵌入;基于所述流的嵌入,所述通信图的嵌入以及所述流图的嵌入,利用分类模型,获得所述待分类应用的分类结果。本方案可以实现对加密流量的分类。
-
公开(公告)号:CN108985830B
公开(公告)日:2021-03-02
申请号:CN201810729907.X
申请日:2018-07-05
Applicant: 北京邮电大学
IPC: G06Q30/02
Abstract: 本发明实施例提供了一种基于异质信息网络的推荐评分方法及装置,该方法包括:确定多个样本用户中的目标用户,并确定多个样本商品中的目标商品;获取针对目标用户的第一相似度向量和针对目标商品的第二相似度向量;获取针对目标用户的第三相似度向量和针对目标商品的第四相似度向量;将针对目标用户的第一相似度向量、第三相似度向量以及针对目标商品的第二相似度向量、第四相似度向量输入推荐网络模型,得到目标用户对目标商品的预测评分值。从而不仅考虑了用户与商品的历史购买信息,还考虑了商品的属性信息以及用户对商品属性的偏好,能够实现更加准确的预测用户对商品的预测评分。
-
-
-
-
-
-
-
-
-