-
公开(公告)号:CN117201499A
公开(公告)日:2023-12-08
申请号:CN202311188625.0
申请日:2023-09-13
Applicant: 支付宝(杭州)信息技术有限公司
IPC: H04L67/1001 , H04L67/12
Abstract: 本说明书一个或多个实施例公开了一种资源分配方法、装置及设备,该方法应用于终端设备,包括:获取针对目标业务的计算请求;基于计算请求和预设的端边资源分配算法,确定与终端设备对应的边缘服务器的算力开销、执行目标业务的业务耗时以及目标业务的业务价值,业务耗时是从终端设备获取计算请求到云端接收目标业务执行结果的时间段,业务价值与目标业务在终端设备或边缘服务器上的可信放行率正相关;根据所确定的边缘服务器的算力开销、执行目标业务的业务耗时以及目标业务的业务价值,以业务价值最大化为目标对端边资源分配算法进行求解,确定计算请求对应的算力卸载对象;将计算请求提供至所确定的算力卸载对象上。
-
公开(公告)号:CN117057597A
公开(公告)日:2023-11-14
申请号:CN202310870163.4
申请日:2023-07-14
Applicant: 清华大学 , 支付宝(杭州)信息技术有限公司
IPC: G06Q10/0635 , G06F18/214
Abstract: 本说明书实施例提供了一种风控模型的训练方法和装置。该方法包括:在至少一轮的模型训练中,当前端节点从本地得到本轮模型训练中使用的本地数据;当前端节点利用该本地数据和在之前轮训练出的本地的风控模型,计算并保存梯度信息;当前端节点向各邻居端节点发送当前保存的梯度信息;当前端节点利用各邻居端节点发来的梯度信息,更新当前端节点保存的梯度信息;当前端节点得到在本轮模型训练中梯度同步结束后最终保存的梯度信息;当前端节点利用该最终保存的梯度信息得到本轮训练出的本地的风控模型,直至该风控模型收敛。本说明书实施例能够减少隐私被泄露的风险,并减少对网络资源的占用。
-
公开(公告)号:CN116737369A
公开(公告)日:2023-09-12
申请号:CN202310617475.4
申请日:2023-05-26
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F9/50
Abstract: 本说明书实施例公开了一种针对部署在终端的模型进行算力分配的方法、装置和设备,所述方法可在确定终端上安装的目标应用中待分配算力的多个模型后,将所述多个模型的算力档位和执行顺序作为参数,建立以所述多个模型对应的全局业务价值为优化目标,以所述多个模型的算力消耗为约束条件的最优化问题;对所述最优化问题进行求解得到针对所述多个模型的最优算力分配方案;基于所述最优算力分配方案在所述终端上为所述多个模型分配算力。
-
公开(公告)号:CN116382711A
公开(公告)日:2023-07-04
申请号:CN202310350158.0
申请日:2023-03-29
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书公开了一种云服务的模型部署方法、装置、电子设备及存储介质。方法包括:基于神经网络搜索架构确定目标模型的多种神经网络结构,目标模型的神经层的结构参数作为搜索空间的超参数。根据结构参数,确定每种神经网络结构的神经层的硬件耗时和传输耗时,传输耗时是指终端将神经层的输出结果传输至云端的耗时。按照神经网络结构的总耗时最小化原则,将每种神经网络结构拆分成终端部分和云端部分,总耗时包括终端部分和云端部分中神经层的硬件耗时以及终端部分中输出结果需要传输至云端的神经层的传输耗时。基于预设策略选取出目标神经网络结构,并按照其划分的终端部分和云端部分完成对应部署,预设策略包含基于总耗时的选取维度。
-
公开(公告)号:CN115543945B
公开(公告)日:2023-06-20
申请号:CN202211509870.2
申请日:2022-11-29
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/174 , G06N3/0464
Abstract: 本说明书公开了一种模型压缩的方法、装置、存储介质及电子设备,可以获取待压缩模型,并确定该待压缩模型的模型结构参数,以及根据模型结构参数,确定针对待压缩模型的若干种压缩方案,而后,根据各种压缩方案,确定每种压缩方案对应的待评估模型,再针对每种压缩方案,根据预设的样本数据,确定该压缩方案对应的待评估模型处理该样本数据得到输出结果所消耗的数据处理时长,作为该压缩方案对应的数据处理时长,从而根据每种压缩方案对应的数据处理时长,确定目标压缩方案,并根据目标压缩方案,对待压缩模型进行压缩,从而提高通过神经网络模型执行业务的效率,保护用户的隐私数据。
-
公开(公告)号:CN116150622A
公开(公告)日:2023-05-23
申请号:CN202310183952.0
申请日:2023-02-17
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F18/214 , G06N20/00 , G06F21/62
Abstract: 本说明书公开了一种模型训练方法、装置、存储介质及电子设备。确定当前迭代过程对应的噪声值,以及基于每个训练样本分别确定出的调整模型参数的梯度,根据各梯度以及预设的第一超参数,分别确定各梯度权重,根据各梯度以及各梯度权重,确定各自适应梯度,基于训练样本确定出的梯度越大则自适应梯度与预设的梯度期望值的差越小,根据噪声值对各各自适应梯度之和加噪,以得到当前迭代过程的批次平均梯度,最后根据批次平均梯度,调整所述待训练模型的参数。可以减少小梯度样本对模型参数影响程度,使得模型训练效果更好,基于训练得到的模型执行业务的结果更准确。
-
公开(公告)号:CN115618962B
公开(公告)日:2023-05-23
申请号:CN202211276984.7
申请日:2022-10-18
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书公开了一种模型训练的方法、业务风控的方法及装置。首先,获取各用户在历史上执行业务的业务数据,以构建各样本数据。而后,按照预设的混合方式,将至少两个样本数据对应的标签数据进行混合,得到混合标签数据。然后,将至少两个样本数据输入到待训练的预测模型中,以通过特征提取层从至少两个样本数据分别提取出业务特征,并输入到特征混合层,以按照混合方式将分别提取出的业务特征进行混合,得到混合特征,接着,将混合特征输入到预测层,以根据混合特征,得到第一预测结果。最后,以最小化第一预测结果与混合标签数据之间的偏差为优化目标,对特征提取层以及预测层进行训练。本方法可以提高预测模型确定出的预测结果的准确性。
-
公开(公告)号:CN115828171B
公开(公告)日:2023-05-16
申请号:CN202310142321.4
申请日:2023-02-13
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F18/2415 , G06F21/62
Abstract: 本说明书公开了一种端云协同执行业务的方法、装置、介质及设备,响应于用户操作,确定业务请求,并根据业务请求获取用户数据,确定用户数据中的敏感数据以及非敏感数据。对敏感数据进行特征提取,确定第一特征,将非敏感数据发送到服务器,使服务器对非敏感数据进行特征提取,确定第二特征,接收服务器返回的第二特征。将第一特征与第二特征输入输出层,确定输出结果。对输出结果进行加噪,确定业务请求的加噪输出结果,并将加噪输出结果发送给服务器,使服务器根据加噪输出结果执行业务。使得即使攻击者获取到业务模型以及输出结果,也不能反推出各输出结果对应的用户数据,实现了对用户隐私数据的保护。
-
公开(公告)号:CN115618748B
公开(公告)日:2023-05-02
申请号:CN202211508332.1
申请日:2022-11-29
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F30/27 , G06F16/248 , G06F16/2455 , G06F30/20 , G06Q40/04
Abstract: 本说明书公开了一种模型优化的方法、装置、设备及存储介质,可以对从各业务模型中,筛选出业务结果准确率低的模型作为目标模型,从而可以根据目标模型的输入的特征数据,以及目标模型的输出结果进行拟合,从而可以确定出输入到目标模型中的特征数据的每个特征维度对应的权重值,进而可以根据确定出的特征数据的每个特征维度对应的权重值,确定出目标模型对特征数据中的哪些特征维度的数据更为关注,并根据目标模型关注的特征维度,对目标模型进行优化。
-
公开(公告)号:CN115883053A
公开(公告)日:2023-03-31
申请号:CN202211369556.9
申请日:2022-11-03
Applicant: 支付宝(杭州)信息技术有限公司
IPC: H04L9/00 , H04L9/40 , G06F18/214
Abstract: 本说明书实施例提供了基于联邦机器学习的模型训练方法和装置。至少两个客户端以及至少一个云服务器参与基于联邦机器学习的模型训练,在每一轮训练中,第一客户端接收云服务器下发的全局模型;第一客户端利用本地的私有数据训练出该全局模型的梯度;第一客户端对本轮训练得到的梯度进行加密,然后将加密后的梯度发送给云服务器;第一客户端执行下一轮训练,直至全局模型收敛。本说明书实施例能够提高模型训练的安全性。
-
-
-
-
-
-
-
-
-