面向样本不均衡场景下的联邦学习优化方法、装置及系统

    公开(公告)号:CN115906153A

    公开(公告)日:2023-04-04

    申请号:CN202211357345.3

    申请日:2022-11-01

    Abstract: 本发明公开了一种面向样本不均衡场景下的联邦学习优化方法、装置及系统。所述方法包括:获取各参与者的本地训练样本集中的样本数量;生成业务初始模型;基于各参与者的本地训练样本集对所述业务初始模型进行联合学习训练,得到一全局模型;将所述全局模型分发各参与者,以使所述样本数量不小于一阈值的参与者将所述全局模型作为最终模型,以及所述样本数量小于所述阈值的参与者基于本地数据对所述全局模型进行迭代优化,并将训练后的模型作为最终模型。本发明更好的实现了参与者在样本不均衡场景下的数据安全共享和高效合作建模。

    一种基于Kubernetes集群的GPU分时共享方法和系统

    公开(公告)号:CN114721818A

    公开(公告)日:2022-07-08

    申请号:CN202210236957.0

    申请日:2022-03-11

    Abstract: 本发明涉及一种基于Kubernetes集群的GPU分时共享方法和系统。该方法包括:在Kubernetes集群的工作节点中设置前端模块,所述前端模块是安装在容器内部的GPU设备库,所述GPU设备库通过拦截CUDA库中所有与内存和计算相关的API来调度GPU在任务中的使用;在Kubernetes集群的工作节点中设置后端模块,所述后端模块管理容器间的令牌及令牌的时间配额,通过令牌及其时间配额实现GPU的分时共享。本发明提出了关于GPU分时共享规则,在镜像中加入GPU设备库作为前端,在节点中加入后端模块进行控制,能够保证节点中多个容器之间的任务执行的安全性和公平性。

    一种基于自适应Margin对称度量学习的推荐方法和装置

    公开(公告)号:CN111310054B

    公开(公告)日:2022-05-31

    申请号:CN202010150774.8

    申请日:2020-03-06

    Abstract: 本发明公开一种基于自适应Margin对称度量学习的推荐方法和装置。该方法包括:根据给定的用户交互记录,通过度量学习方法拟合用户‑物品的关系;采用基于triple‑loss的欧氏度量学习范式进行建模;设计基于user‑centric和item‑centric的几何对称的关系度量方法;采用自适应Margin的方法自动学习得到用户和物品的Margin;将自适应Margin与用户/物品的偏置建立联系,解释其物理含义;使用多任务学习框架进行联合训练,得到推荐模型;基于该推荐模型为用户进行物品推荐。本发明充分考虑用户个体化差异,能很好地模拟真实场景下的用户‑物品交互关系,能够显著提高物品推荐的性能。

    一种基于隐式关联的多标签传播方法及系统

    公开(公告)号:CN110136016B

    公开(公告)日:2021-06-29

    申请号:CN201910270828.1

    申请日:2019-04-04

    Abstract: 本发明涉及一种基于隐式关联的多标签传播方法及系统。该方法包括:对给定的网络构建局部网络结构图,其中部分节点的标签信息已知,并计算概率转移矩阵;基于标签共现方法挖掘多标签之间的隐式关联信息;生成节点‑标签矩阵并初始化未知节点的标签信息;根据概率转移矩阵以及隐式关联信息对每一个未知节点的标签进行更新;基于节点‑标签矩阵计算更新停止条件;反复执行上述更新步骤直到满足更新停止条件或者达到给定的迭代次数;根据节点‑标签矩阵生成网络中未知标签信息的节点的标签信息。本发明能够更好的挖掘标签之间的关联关系,加速方法的收敛速度,从而更准确全面的分析大型网络用户的标签信息。

    一种面向深度学习训练任务的GPU内存优化方法及系统

    公开(公告)号:CN109919310B

    公开(公告)日:2021-05-18

    申请号:CN201910035753.9

    申请日:2019-01-15

    Abstract: 本发明涉及一种面向深度学习训练任务的GPU内存优化方法及系统。该方法包括:(1)设计基本换入换出操作;(2)在训练开始前首先进行静态数据采集;(3)不采取换入换出策略,先训练若干个epoches,在此期间进行动态数据采集;(4)建立换入换出策略的性能模型,并明确GPU计算、内存、PCIe通信三者之间的制约关系;(5)根据性能模型确定最优策略;(6)剩余的epoch采用最优minibatch size及其匹配的换入换出策略继续训练直至结束。本发明解决了超深神经网络模型无法训练或可训练minibatch size太小引起训练效率低的问题,能够充分利用GPU资源提升超深神经网络模型训练效率。

    一种基于注意力机制的实体关系联合抽取方法和系统

    公开(公告)号:CN109902145B

    公开(公告)日:2021-04-20

    申请号:CN201910048837.6

    申请日:2019-01-18

    Abstract: 本发明涉及一种基于注意力机制的实体关系联合抽取方法和系统。该方法的步骤包括:将训练数据中标注的实体和关系的三元组,转化为每个词对应一个预定义类型的标签的形式;将训练数据的句子中的每个词映射成对应的词向量,输入基于注意力机制的神经网络模型,并通过反向传播算法进行训练,得到标签预测模型;将需进行实体关系抽取的句子输入训练完成的标签预测模型,预测出每个词对应的标签,根据标签和三元组中每个词的对应关系,得到句子中存在的实体关系三元组。该系统包括预处理模块、模型训练模块和结果处理模块。本发明通过更有效的利用句子中的关键信息,提升了关系实体联合抽取的性能,具有良好的实用性。

    一种精确检测数据中心能效的方法及系统

    公开(公告)号:CN112070353A

    公开(公告)日:2020-12-11

    申请号:CN202010771847.5

    申请日:2020-08-04

    Abstract: 本发明公开了一种精确检测数据中心能效的方法及系统。本方法步骤包括:1)集目标数据中心在一设定测量时间范围内各设定测量时间点的数据中心总功率;2)采集该目标数据中心在该各设定测量时间点的IT设备总动态功率;所述IT设备总动态功率是指该目标数据中心的IT设备总功率中随IT设备负载动态波动的功率;3)根据公式计算该目标数据中心在每一所述设定测量时间点的有用功率比UPR;4)将各所述设定测量时间点的有用功率比UPR的平均值作为该目标数据中心在该设定测量时间范围内的能效评估值。本发明可以为数据中心能效状况提供更可靠的评估。

    基于相似子图匹配的在线马甲检测方法

    公开(公告)号:CN110458182A

    公开(公告)日:2019-11-15

    申请号:CN201910548779.3

    申请日:2019-06-24

    Abstract: 本发明提出一种基于相似子图匹配的在线马甲检测方法,包括以下步骤:利用训练数据训练分类算法,建立检测模型;根据所有被封禁账号的社交活动,构建交互网络图和兴趣网络图;将对于待检测账号,根据其社交活动,构建交互网络图和兴趣网络图;将该待检测账号与所有被封禁账号分别进行配对,组成账号对;根据相似子图匹配方法,计算每个账号对的交互网络相似度和兴趣网络相似度;将交互网络相似度和兴趣网络相似度组成特征矩阵,输入到检测模型,判断该待检测账号和封禁账号之间是否匹配,如果匹配,则该待检测账号判定为马甲账号,否则判定为正常账号。

    一种面向深度学习训练任务的GPU内存优化方法及系统

    公开(公告)号:CN109919310A

    公开(公告)日:2019-06-21

    申请号:CN201910035753.9

    申请日:2019-01-15

    Abstract: 本发明涉及一种面向深度学习训练任务的GPU内存优化方法及系统。该方法包括:(1)设计基本换入换出操作;(2)在训练开始前首先进行静态数据采集;(3)不采取换入换出策略,先训练若干个epoches,在此期间进行动态数据采集;(4)建立换入换出策略的性能模型,并明确GPU计算、内存、PCIe通信三者之间的制约关系;(5)根据性能模型确定最优策略;(6)剩余的epoch采用最优minibatch size及其匹配的换入换出策略继续训练直至结束。本发明解决了超深神经网络模型无法训练或可训练minibatch size太小引起训练效率低的问题,能够充分利用GPU资源提升超深神经网络模型训练效率。

    一种面向深度学习训练任务的分布式加速方法及系统

    公开(公告)号:CN109902818A

    公开(公告)日:2019-06-18

    申请号:CN201910035752.4

    申请日:2019-01-15

    Abstract: 本发明涉及一种面向深度学习训练任务的分布式加速方法及系统。该方法的步骤包括:(1)搭建分布式GPU训练集群;(2)采用换入换出策略,调节分布式GPU训练集群中单个GPU工作节点上的minibatch size;(3)根据步骤2)确定的minibatch size调整学习率;(4)采用步骤(2)和(3)确定的超参数minibatch size和学习率进行深度学习训练。本发明在不影响训练准确率的前提下,简单高效地通过减少集群间参数更新通信的次数大幅度地压缩通信时间,相较于单GPU模式,在多GPU模式下能够充分提高集群扩展效率,对超深神经网络模型的训练过程实现加速。

Patent Agency Ranking