-
公开(公告)号:CN112232492A
公开(公告)日:2021-01-15
申请号:CN202011193283.8
申请日:2020-10-30
Applicant: 北京邮电大学
Abstract: 本发明实施例提供了一种基于解耦的异质网络嵌入方法、装置及电子设备,该方法包括:将从待处理异质网络获取的不同元路径下的嵌入向量输入至编码层,获得待定的共有特征向量,并基于元路径鉴别网络模型,得到该待定的共有特征向量的损失函数值;将从嵌入向量查找层获取的待定的特有特征向量与待定的共有特征向量进行合成,并基于语义鉴别网络模型,得到合成嵌入向量的损失函数值;在两个损失函数值小于或等于预设损失函数阈值时;输出该待定的共有特征向量与待定的特有特征向量,否则,调整编码层、嵌入向量查找层和生成层的参数,并重复执行将多组嵌入向量输入至编码层的步骤。从而实现在不选择元路径的前提下,保证异质网络的低维向量的准确度。
-
公开(公告)号:CN106503022B
公开(公告)日:2020-12-01
申请号:CN201510567428.9
申请日:2015-09-08
Applicant: 北京邮电大学 , 腾讯科技(深圳)有限公司
IPC: G06F16/958
Abstract: 本发明涉及一种推送推荐信息的方法和装置,所述方法包括:获取异质信息网络中连接候选用户和目标用户的元路径;所述元路径包括所述候选用户和候选推荐对象间的具有属性值的连接;获取所述目标用户和所述候选用户相对于所述元路径的用户相似度;根据所述候选用户和候选推荐对象间的连接的属性值、所述元路径的属性值约束条件以及所述用户相似度,估计所述候选推荐对象和所述目标用户间的连接的属性值;当估计的属性值满足推荐条件时,向所述目标用户对应的终端发送所述候选推荐对象的推荐信息。本发明提供的推送推荐信息的方法和装置,不仅考虑了目标用户的社交关系,还考虑了目标用户与候选推荐对象之间量化的关系,从而使得推送结果更加准确。
-
公开(公告)号:CN111931045A
公开(公告)日:2020-11-13
申请号:CN202010748668.X
申请日:2020-07-30
Applicant: 北京邮电大学
IPC: G06F16/9535 , G06F40/30 , G06N20/00
Abstract: 本发明实施例提供了一种基于元学习的异质信息网络冷启动推荐方法及装置,其中方法包括:获取第一节点信息以及各第二节点信息,得到第一节点对应的第一特征向量和各第二节点各自对应的第一特征向量;将第一节点对应的第一特征向量和各第二节点各自对应的第一特征向量,分别输入预先训练好的元学习模型中,通过聚合上下文语义得到第一节点对应的第二特征向量和各第二节点各自对应的第二特征向量;计算第一节点对应的第二特征向量与各第二节点各自对应的第二特征向量之间的相似度;基于各相似度,确定向第一节点推荐的目标第二节点。本发明实施例,能够提高异质信息网络冷启动推荐结果的准确度。
-
公开(公告)号:CN111930858A
公开(公告)日:2020-11-13
申请号:CN202010711317.1
申请日:2020-07-22
Applicant: 北京邮电大学
Abstract: 本发明实施例提供一种异质信息网络的表示学习方法、装置及电子设备,包括:获得异质信息网络和异质信息网络的网络模式,并从异质信息网络中采样出与网络模式相匹配的网络模式实例以及针对异质信息网络包含的每个节点,基于该节点的一阶邻居关系和包含该节点的网络模式实例,得到该节点的节点表示,由于网络模式全面地保留了网络中的各节点的节点类型和关系信息,因此通过与网络模式相匹配的网络模式实例可以生成统一的网络表示。
-
公开(公告)号:CN111815415A
公开(公告)日:2020-10-23
申请号:CN202010675073.6
申请日:2020-07-14
Applicant: 北京邮电大学
Abstract: 本发明实施例提供了一种商品推荐方法、系统及设备,涉及计算机应用技术领域,其中,方法可以包括:获取用户的历史交互行为信息;历史交互行为信息包括用户在历史时间内与商品的交互行为;基于历史交互行为信息,结合用户习惯对用户需求的影响以及不同交互行为之间的影响,确定用户的用户特征信息;确定多个商品的商品特征信息;将用户特征信息和多个商品的商品特征信息输入预先训练好的预测模型,得到用户分别与各个商品的交互概率;交互概率表示用户选择与商品交互的概率;基于交互概率为用户推荐商品。通过本发明实施例提供的商品推荐方法、系统及设备,能够提高推荐的准确性。
-
公开(公告)号:CN111814853A
公开(公告)日:2020-10-23
申请号:CN202010591742.1
申请日:2020-06-24
Applicant: 北京邮电大学
IPC: G06K9/62
Abstract: 本发明实施例提供了一种数据选择偏差下的去相关聚类方法及装置,其中,方法包括:获取存在偏差的多张图像,作为样本集;基于样本集,联合优化加权后聚类算法和去相关正则项,得到最优加权后聚类算法,其中,最优加权后聚类算法是通过多次计算加权后聚类算法得到的,加权后聚类算法是通过使用去相关正则项学习得到的各样本权重,对聚类算法进行加权得到的;各样本权重为通过使用去相关正则项,对样本集中的各图像,学习本次各样本权重;通过在本次加权后聚类算法中包含的本次聚类中心和簇不是首次聚类中心和簇,并且本次聚类中心和簇与上次聚类中心和簇之间的差异小于阈值时,得到最优加权后聚类算法,以确定图像不受偏差影响的聚类中心和簇。
-
公开(公告)号:CN111814048A
公开(公告)日:2020-10-23
申请号:CN202010636805.0
申请日:2020-07-03
Applicant: 北京邮电大学
IPC: G06F16/9535
Abstract: 本发明实施例提供了一种信息推荐方法及装置,所述方法包括:获取待推荐二部图的拓扑信息、待推荐二部图中每个用户节点对应的用户信息及待推荐二部图中每个信息节点对应的内容信息;将拓扑信息、用户信息及内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量;基于用户向量表示的兴趣偏好、信息向量表示的内容特点及信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率;基于预测概率,向二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。应用本发明实施例,可以更加准确地向用户推荐用户感兴趣的信息。
-
公开(公告)号:CN108932637B
公开(公告)日:2020-09-25
申请号:CN201810750122.0
申请日:2018-07-10
Applicant: 北京邮电大学
IPC: G06Q30/02 , G06F16/2458 , G06F40/284
Abstract: 本发明实施例提供了一种方面挖掘模型的训练方法、装置及电子设备,该方法包括:获得多条针对商家对象的评论信息;确定各个评论文本中的评论词组与评价方面的目标对应关系;确定多条评论信息中的用户评论关系和商家评论关系;利用预设的函数优化公式,优化预设的损失函数;在损失函数优化完成后,对方面挖掘模型进行训练,直至通过损失函数所计算出的损失值低于预设阈值时,完成方面挖掘模型的训练。相比于现有技术,本发明实施例提供的方法,在模型训练时,考虑了用户、评论文本和商家对象之间的关系,使得方面挖掘模型能够学习到更有效的特征,进而,提高基于方面挖掘模型确定的商家对象的方面评分的准确性。
-
公开(公告)号:CN111223006A
公开(公告)日:2020-06-02
申请号:CN201911358731.2
申请日:2019-12-25
Applicant: 国网冀北电力有限公司信息通信分公司 , 北京邮电大学 , 国家电网有限公司
Inventor: 陈重韬 , 肖丁 , 张玙璠 , 石川 , 王艺霏 , 彭柏 , 来骥 , 马跃 , 莫爽 , 马铭君 , 吴文睿 , 郝燕如 , 张少军 , 王东升 , 娄竞 , 金燊 , 许大卫 , 万莹 , 聂正璞 , 李坚 , 李贤 , 孟德 , 李信 , 常海娇 , 寇晓溪 , 尚芳剑 , 纪雨彤 , 赵阳 , 辛霆麟 , 于然 , 李硕 , 张实君 , 王海峰
Abstract: 本发明提供一种异常用电检测方法及装置,包括:从电网中获取原始用电数据作为训练用电数据;对所述训练用电数据进行预处理,得到训练用电数据样本;基于所述训练用电数据样本,构造异常用电数据样本;利用所述训练用电数据样本和所述异常用电数据样本,训练得到用于检测异常用电数据的异常用电检测模型。利用异常用电检测模型能够得到较为准确的用电数据分类结果,能够应用于电网中实现异常用电检测功能,降低异常用电造成的损失。
-
公开(公告)号:CN110704626A
公开(公告)日:2020-01-17
申请号:CN201910945503.9
申请日:2019-09-30
Applicant: 北京邮电大学
Abstract: 本发明实施例提供了一种用于短文本的分类方法及装置,该方法在对待分类短文本进行分类时,根据从待分类短文本中获取的实体和所述主题分别与待分类短文本的所属关系,构建文本异质图,并将构建的文本异质图输入至预设的文本分类模型中,得到所述待分类短文本的分类结果,应用本发明实施例构建的文本异质图能够捕捉待分类短文本中的语义关系,且对异质图卷积神经网络训练时无需太多的标注数据,使得训练后的文本分类模型对短文本分类时的准确率更高,可见,应用本实施例提供的方法能够提高对短文本分类的准确率。
-
-
-
-
-
-
-
-
-