-
公开(公告)号:CN118568469A
公开(公告)日:2024-08-30
申请号:CN202410712787.8
申请日:2024-06-03
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F18/213 , G06F18/241 , G06F18/25 , G06N3/0455 , G06N3/084 , G06F21/62
Abstract: 本说明书公开了一种特征提取方法、装置、介质及设备,将原始用户信息输入编码层,得到用户特征,将用户特征输入解码层,得到混淆用户信息。根据混淆用户信息和原始用户信息确定损失,根据损失至少确定编码层的第一梯度。通过梯度反转层中预设的反转系数,将第一梯度取反,根据取反后的第一梯度,对编码层的参数进行调整。响应于目标用户信息的特征提取请求,将目标用户信息输入训练完成的隐私保护模型中的编码层,确定用户特征并返回。降低了用户特征被解码层逆向还原的概率,减小了用户信息泄露的风险。
-
公开(公告)号:CN117592102A
公开(公告)日:2024-02-23
申请号:CN202311562671.2
申请日:2023-11-21
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 郑开元
IPC: G06F21/62 , G06N20/00 , G06F18/213
Abstract: 本申请公开了一种业务执行方法、装置、设备及存储介质,确定出业务数据后,通过业务模型中的分支预测单元,预测执行业务需运行的目标分支网络,再通过运行目标分支网络来执行业务。其中,该业务模型中包含有若干分支网络,运行各分支网络所需的业务特征的数量不完全相同,且运行各分支网络所需的计算资源不同。不需要迭代各分支网络,只需要执行该业务模型中的一个分支网络,即可得到准确的业务执行结果,保证了业务执行效率的同时,降低了对计算资源的需求。同时,当业务的数量为多个时,至少部分业务的执行过程仅需要少量业务特征的参与,避免了所有业务特征都暴露在业务执行过程中而导致的安全隐患,进一步保证了业务数据的信息安全。
-
公开(公告)号:CN119988973A
公开(公告)日:2025-05-13
申请号:CN202510090380.0
申请日:2025-01-20
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F18/214 , G06N5/04 , G06F16/334 , G06N3/045
Abstract: 本说明书公开一种模型训练方法、业务执行方法、装置、介质及电子设备,获取目标样本集,而后,针对目标样本集中的每个训练样本,根据该训练样本,确定该训练样本对应的输入信息以及输入信息所对应的引导信息,之后,将输入信息以及引导信息输入到待训练模型中,以使待训练模型根据输入信息以及引导信息,确定输出输入信息对应输出结果时所基于的初始逻辑信息,根据输入信息对应的标准输出结果,通过待训练模型对初始逻辑信息进行调整,得到调整后逻辑信息,根据调整后逻辑信息,确定待训练模型针对输入信息的输出结果,以根据输出结果,训练待训练模型。
-
公开(公告)号:CN118628248A
公开(公告)日:2024-09-10
申请号:CN202410853853.3
申请日:2024-06-27
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书公开了一种基于交易数据的用户分类方法、装置、介质及设备,服务器在接收包含各用户的交易数据的交易数据集后,针对每个用户,根据交易数据集确定出与该用户在至少同一个交易对象进行过交易的用户,作为相关用户,而后根据交易数据集中的交易数据,确定该用户与该用户对应相关用户之间的业务相似度,进而根据每个用户与各自对应相关用户之间的业务相似度,得到针对各用户的分类结果。通过限定与用户在同一个交易对象进行过交易的用户作为相关用户,并仅计算用户与对应的相关用户之间的业务相似度,大幅减少了计算资源的耗费,提高了基于业务相似度对各用户进行分类的效率。
-
公开(公告)号:CN117992829A
公开(公告)日:2024-05-07
申请号:CN202410148333.2
申请日:2024-02-01
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F18/24 , G06N3/0464 , G06N3/094
Abstract: 本说明书实施例提供了一种数据处理方法、装置及设备,其中,该方法包括:获取预先训练的分类模型;通过所述预先训练的分类模型,分别对所述源域特征样本和所述目标域特征样本进行分类处理,得到所述源域特征样本对应的标签预测值以及所述目标域特征样本对应的标签预测值;基于所述目标域特征样本对应的标签预测值,确定样本筛选阈值;基于所述样本筛选阈值和所述源域特征样本对应的标签预测值,从所述源域特征样本选取目标特征样本,并通过所述目标特征样本和所述目标域特征样本,对预设业务模型进行训练,得到训练后的业务模型。
-
公开(公告)号:CN114692828A
公开(公告)日:2022-07-01
申请号:CN202210295134.5
申请日:2022-03-23
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书提供一种训练神经网络的方法、装置、设备及存储介质,所述神经网络为由第一神经网络和第二神经网络组成的孪生神经网络,且第一神经网络和第二神经网络具有相同的网络结构和网络参数;所述方法包括:获取预设训练数据集中所有的训练数据,训练数据包括有标签数据和无标签数据;将获取到的有标签数据和无标签数据成对输入所述孪生神经网络进行分类训练,其中,有标签数据被输入所述第一神经网络,无标签数据被输入所述第二神经网络;确定所述第一神经网络的第一目标网络参数;将所述第二神经网络的网络参数更新为第一目标网络参数;基于所述第一目标网络参数确定目标孪生神经网络。
-
公开(公告)号:CN119990183A
公开(公告)日:2025-05-13
申请号:CN202510199077.4
申请日:2025-02-21
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供一种大语言模型的微调方法和装置。方法包括:获取预训练的大语言模型的权重矩阵,将权重矩阵分解为幅度向量和第一方向矩阵,并初始化第一低秩矩阵和第二低秩矩阵,第一低秩矩阵和第二低秩矩阵的乘积用于拟合第一方向矩阵的增量矩阵;保持第一方向矩阵不变,执行多轮微调,每轮微调包括:将训练文本输入大语言模型,进行损失函数的计算;基于损失函数更新幅度向量;确定损失函数相对于当前方向矩阵的第一梯度矩阵;根据第一梯度矩阵得到更新的第一低秩矩阵以及第二低秩矩阵;基于更新的第一低秩矩阵和第二低秩矩阵的乘积确定本轮增量矩阵,将本轮增量矩阵叠加在第一方向矩阵上,作为本轮更新后的方向矩阵。
-
公开(公告)号:CN118674041A
公开(公告)日:2024-09-20
申请号:CN202410702468.9
申请日:2024-05-31
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例公开了一种基于大语言模型执行业务的方法和装置,确定待执行问答业务对应的用户问题,将所述用户问题输入到智能体模型中,以使所述智能体模型根据所述用户问题检索所述智能体模型中预先存储的知识图谱,确定出用于回复所述用户问题的图谱子结构,并生成所述图谱子结构对应的推理提示。将所述推理提示输入到大语言模型中,以使所述大语言模型根据所述推理提示,生成所述图谱子结构对应的回复,作为所述用户问题的回复。
-
公开(公告)号:CN117592998A
公开(公告)日:2024-02-23
申请号:CN202311559950.3
申请日:2023-11-21
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 郑开元
IPC: G06Q20/40 , G06F18/24 , G06F18/213 , G06F18/25
Abstract: 本说明书公开了一种风控的方法、装置、存储介质及电子设备,基于指定属性,对各待风控用户进行分组处理,将各用户组对应的用户数据输入风控模型,得到各用户组的第一特征。将各待风控的用户数据输入风控模型得到各待风控用户的初始特征,对初始特征进行缩放,得到第二特征。将第一特征与第二特征进行融合,得到融合特征,将融合特征输入风控模型,得到风控结果,基于风控结果对各待风控用户进行风控。该方法对各用户进行分组处理,得到各用户在其对应的分组下的特征的同时,对各用户对应的用户数据的初始特征进行缩放,将缩放后的特征与各用户在其对应的分组下的特征进行融合,调节分组后的用户的特征的离散程度,提高模型的输出结果的准确度。
-
公开(公告)号:CN116167347A
公开(公告)日:2023-05-26
申请号:CN202310329061.1
申请日:2023-03-29
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供了一种表格型交易数据的深度学习方法及装置、介质、设备。方法包括:从表格型交易数据中提取出N个先验特征,将每一个所述先验特征转化为对应的特征向量;计算所述表格型交易数据对应的第一注意力得分矩阵;将每一个所述特征向量和对应的所述第一注意力得分向量进行融合,得到对应的第二注意力得分向量;根据由N个所述第二注意力得分向量形成的第二注意力得分矩阵,对所述表格型交易数据进行深度学习,以确定所述表格型交易数据中交易行为信息和标签信息之间的关系。本说明书实施例提供一种适合表格型的交易数据的深度学习方案,减少先验知识的丢失,提高深度学习结果的准确性。
-
-
-
-
-
-
-
-
-