-
公开(公告)号:CN118967277B
公开(公告)日:2025-04-15
申请号:CN202411433647.3
申请日:2024-10-14
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06Q30/0601 , G06Q30/0201 , G06N20/00
Abstract: 本说明书实施例公开了一种用于对象管控的方法、装置、存储介质及电子设备,根据多个对象的对象特征以及多个对象群组对应的备选管控动作集合构建推荐模型,获得所述推荐模型预测的至少一个对象对应的推荐管控动作;获得所述至少一个对象关于所述推荐管控动作的反馈信息,使得所述推荐模型通过基于所述反馈信息进行强化学习,获得所述至少一个对象在各个管控动作下的关于预设指标的无偏估计数值;根据业务目标以及所述无偏估计数值,针对所述多个对象进行管控动作最优化求解,获得所述多个对象在所述业务目标下对应的目标管控动作。
-
公开(公告)号:CN118657604A
公开(公告)日:2024-09-17
申请号:CN202410703511.3
申请日:2024-05-31
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06Q40/03 , G06Q10/0635 , G06N20/00
Abstract: 本说明书实施例公开了一种模型训练的方法、装置及电子设备。所述模型训练的方法包括:获取已对商户标注标签的源域数据和未对商户标注标签的目标域数据;将所述源域数据中第一商户的第一源域标签输入标签转换模型,得到所述目标域数据中所述第一商户的第一模拟标签,所述第一商户为所述目标域数据和所述源域数据中均包含的商户;基于所述第一模拟标签,通过特征生成模型生成所述目标域数据中所述第一商户的第一模拟特征;基于所述第一模拟特征和所述目标域数据中所述第一商户的目标域特征,确定所述标签转换模型对应的转换损失,并根据所述转换损失对所述标签转换模型进行训练,得到训练后的标签转换模型。
-
公开(公告)号:CN117576514A
公开(公告)日:2024-02-20
申请号:CN202311636941.X
申请日:2023-11-30
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06V10/774 , G06V10/44 , G06V10/80 , G06V10/764 , G06V10/82
Abstract: 本说明书实施例公开了一种图像的选取方法、装置及设备,该方法包括:获取无标签信息的样本图像构成的样本图像集,基于样本图像,通过目标检测模型确定每个样本图像中包含的未知类别的目标、每个样本图像中包含的目标、每个样本图像对应的图像特征,基于每个样本图像中包含的未知类别的目标、每个样本图像中包含的目标和每个样本图像对应的图像特征,确定每个样本图像的训练价值,该训练价值包括新颖性价值、不确定性价值和多样性价值中的一种或多种,基于预设的筛选策略和样本图像集中的每个样本图像的训练价值,从样本图像集中筛选用于重新训练目标检测模型的目标样本图像。
-
公开(公告)号:CN117392478A
公开(公告)日:2024-01-12
申请号:CN202311140661.X
申请日:2023-09-05
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06V10/774 , G06V10/82 , G06N3/08 , G06N3/045 , G06N3/0464
Abstract: 本说明书实施例公开了一种证件识别模型训练方法,包括:构建无标签的第一样本图像集;在所述第一样本图像集上进行大模型的预训练,得到预训练大模型;确定至少一个下游任务;构建针对所述下游任务的第二样本图像集和子模型;将所述第二样本图像集中的第二样本图像输入所述预训练大模型,获得所述第二样本图像的通用特征;针对当前子模型,固定其他子模型的参数,将所述通用特征输入当前子模型,得到当前子模型的识别结果;基于所述第二样本图像的标签和所述识别结果,确定损失函数;基于所述损失函数,更新当前子模型的参数。相应地,本发明公开了一种证件识别方法及装置。
-
公开(公告)号:CN116993602A
公开(公告)日:2023-11-03
申请号:CN202310781790.0
申请日:2023-06-28
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本申请实施例公开了一种卡证图像处理方法及装置,该方法包括:对目标图像进行预处理,得到灰度图像;对所述灰度图像进行基于第一阈值的二值化处理,得到第一光斑轮廓图像;对所述灰度图像进行基于第二阈值的二值化处理,得到光斑核心图像;基于所述光斑核心图像,从所述第一光斑轮廓图中过滤无核心的光斑轮廓,得到第二光斑轮廓图像;基于所述光斑核心图像和所述第二光斑轮廓图像,确定光斑图像;从所述目标图像中过滤所述光斑图像。能够通过双阈值图像分割技术检测到卡证上的光斑,从而可以从卡证图像上过滤掉光斑图像,获得清晰的卡证图像。
-
公开(公告)号:CN116935066A
公开(公告)日:2023-10-24
申请号:CN202310893347.2
申请日:2023-07-20
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06V10/44 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/048 , G06V10/764
Abstract: 本说明书实施例提供了一种训练图像识别模型的方法、图像识别方法及装置。本说明书实施例基于多层级的标签关系树,通过层级特征交互网络对各类别层级上的特征进行交互,并基于图像样本在各类别层级上的特征表示,得到图像样本属于标签关系树中各类别的概率,以及利用图像样本在目标类别层级上的特征表示,得到图像样本属于目标类别层级上各类别的概率。通过最大化图像样本属于被标注类别标签以及与被标注类别标签具有继承关系的上层级类别和/或下层级类别的概率来训练图像识别模型。这种训练方式有效利用具有不同层级的类别标签的图像样本进行学习,传递类别层级之间的知识,降低对于目标类别层级的图像样本的质量依赖,提高图像识别的鲁棒性。
-
公开(公告)号:CN116844183A
公开(公告)日:2023-10-03
申请号:CN202310865146.1
申请日:2023-07-13
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06V30/42 , G06V30/148
Abstract: 本说明书公开了一种模型训练的方法、装置、存储介质和电子设备,获取用户发送的待识别证件图像,将所述待识别证件图像输入预先训练的字符识别模型,获得第一字符识别结果,判断所述用户是否修改所述第一字符识别结果,若是,则获取所述修改后的字符识别结果,作为第二字符识别结果,根据所述第二字符识别结果,对所述字符识别模型进行训练。本方法通过用户修改后的识别结果对模型进行训练,提高了模型输出结果的准确性。
-
公开(公告)号:CN116824580A
公开(公告)日:2023-09-29
申请号:CN202310650720.1
申请日:2023-06-02
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06V20/70 , G06V10/40 , G06V10/74 , G06V10/774
Abstract: 本说明书一个或多个实施例提供了一种图像处理方法、装置、设备及存储介质,其中方法包括:获取待进行风险检测的图像,将该图像输入至风险检测模型,通过风险检测模型,提取该图像的图像特征,该图像特征为用于表示该图像的图像内容与待检测的风险信息之间的相关性的特征,待检测的风险信息包括多个类别的风险信息,根据该图像特征和风险检测模型预先训练得到的待检测的风险信息对应的语义特征,确定该图像的风险信息。
-
公开(公告)号:CN116797448A
公开(公告)日:2023-09-22
申请号:CN202310612268.X
申请日:2023-05-26
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例公开了一种用于视觉障碍人群的图像转换训练方法,包括:获取彩色图像;将所述彩色图像输入到图像转换学习网络模型中,生成与所述彩色图像相对应的第一内容特征向量以及颜色特征向量;根据所述第一内容特征向量以及颜色特征向量,获得所述图像转换学习网络模型对所述彩色图像转换得到的灰度图像;以所述彩色图像的图像内容与所述灰度图像的图像内容的差异最小化为训练目标,对所述图像转换学习网络模型进行训练;当需要对特定彩色图像灰度转换时,将待转换的彩色图像输入至所述训练后的图像转换学习网络模型中,生成目标灰度图。相应地,本发明公开了用于视觉障碍人群的图像转换训练装置。
-
公开(公告)号:CN116681834A
公开(公告)日:2023-09-01
申请号:CN202310675221.8
申请日:2023-06-08
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例公开了一种对抗点云的构建方法、装置及设备,该方法包括:获取应用于预设业务的第一点云数据和扰动信息,基于第一扰动信息和预设的目标函数对扰动信息进行更新,并基于更新后的扰动信息对第一点云数据进行扰动处理,得到第一对抗点云数据,从扰动信息和更新后的扰动信息中选取一个或多个扰动信息作为目标扰动信息,将每个目标扰动信息分解为第一子扰动信息和第二子扰动信息,基于第一子扰动信息和第二子扰动信息分别对第一点云数据进行扰动处理,得到第三对抗点云数据和第四对抗点云数据,并基于第一点云数据、第三对抗点云数据和第四对抗点云数据合成第五对抗点云数据,进而构建针对预设业务的对抗点云数据。
-
-
-
-
-
-
-
-
-