-
公开(公告)号:CN118114775A
公开(公告)日:2024-05-31
申请号:CN202410170905.7
申请日:2024-02-06
Applicant: 之江实验室
IPC: G06N5/045 , G06N5/04 , G06N5/025 , G06N3/0985 , G06F18/2113 , G06F18/2433 , G06Q20/40
Abstract: 本申请涉及一种特征预测方法、特征预测装置、电子装置和计算机设备,其中,该特征预测方法包括:确定初始输入特征集,构建第一深度神经网络模型;利用可解释性算法从初始输入特征集中筛选目标输入特征;基于目标输入特征,结合预设的自动机器学习算法构建目标业务场景下的第二深度神经网络模型,并存储第二深度神经网络模型;对第二深度神经网络模型进行部署,利用已部署的第二深度神经网络模型,基于预测目标对目标业务场景下的业务数据所表征的业务特征进行预测,生成目标业务场景下的预测结果。其能够在模型构建阶段解除对专家知识和依赖,从而提高模型构建的稳定性,基于模型可解释性对输入特征进行筛选,提高模型在实际应用中的可解释性。
-
公开(公告)号:CN117974158A
公开(公告)日:2024-05-03
申请号:CN202311849432.5
申请日:2023-12-28
Applicant: 之江实验室
IPC: G06Q30/018 , G06Q40/08 , G06F18/23 , G06F18/22 , G06F18/214 , G06N3/08
Abstract: 本申请涉及一种基于深度学习的反欺诈人群放大方法、装置和介质,其中,基于深度学习的反欺诈人群放大方法包括:基于样本和对应的标签对深度学习模型进行训练,获得训练好的深度学习模型;基于训练好的深度学习模型的中间层向量,获得各用户的中间层用户特征向量;将目标理赔事件或待预测用户信息输入至训练好的深度学习模型中,获得各待预测用户的中间层用户特征向量;基于各所述用户的中间层用户特征向量以及各所述待预测用户的中间层用户特征向量,采用聚类算法,确定与所述历史理赔事件中欺诈人群的相似人群以及确定与所述历史理赔事件中非欺诈人群的相似人群。解决了在金融保险人群反欺诈场景难以及时发现欺诈群体的问题,提高了反欺诈效果。
-
公开(公告)号:CN117235584B
公开(公告)日:2024-04-02
申请号:CN202311522727.1
申请日:2023-11-15
Applicant: 之江实验室
IPC: G06F18/24 , G06F18/214 , G06N3/042 , G06N3/08
Abstract: 本申请涉及一种图数据分类方法、装置、电子装置和存储介质,其中,该图数据分类方法包括:获取图数据训练集;对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵;基于目标待训练图数据的节点属性特征以及降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型;基于训练好的图神经网络模型对待分类图数据进行分类,得到待分类图数据的分类结果。通过本申请,解决了现有图神经网络模型对社交网络图数据的分类结果的准确度较低的问题,提高了图神经网络模型的鲁棒性,进而提高了图神经网络模型对社交网络图数据的分类结果的稳定性和鲁棒性。
-
公开(公告)号:CN117235584A
公开(公告)日:2023-12-15
申请号:CN202311522727.1
申请日:2023-11-15
Applicant: 之江实验室
IPC: G06F18/24 , G06F18/214 , G06N3/042 , G06N3/08
Abstract: 本申请涉及一种图数据分类方法、装置、电子装置和存储介质,其中,该图数据分类方法包括:获取图数据训练集;对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵;基于目标待训练图数据的节点属性特征以及降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型;基于训练好的图神经网络模型对待分类图数据进行分类,得到待分类图数据的分类结果。通过本申请,解决了现有图神经网络模型对社交网络图数据的分类结果的准确度较低的问题,提高了图神经网络模型的鲁棒性,进而提高了图神经网络模型对社交网络图数据的分类结果的稳定性和鲁棒性。
-
公开(公告)号:CN117058493B
公开(公告)日:2024-02-13
申请号:CN202311326470.2
申请日:2023-10-13
Applicant: 之江实验室
IPC: G06V10/774 , G06V10/40 , G06V10/764 , G06V10/74 , G06V10/82 , G06N3/08
Abstract: 本申请涉及一种图像识别的安全防御方法、装置和计算机设备。所述方法包括:在原图像识别模型的原始样本集中加入与原图像识别模型的梯度相反的噪音,得到模型训练集;随机抽取预设数量的模型训练集中的图像数据,分别输入到各个子专家网络模型中,得到数据特征;计算此组图像数据的准确率交叉熵损失函数、差异性损失函数和焦点稳定性损失函数;基于此组图像数据的准确率交叉熵损失函数、差异性损失函数和焦点稳定性损失函数,利用梯度下降法对多专家网络模型的参数进行更新;当多专家网络模型收敛时,得到用于图像识别的完备多专家网络模型。采用本方法能够解决现有技术中存在人工智能模型对于黑客攻击的防御效果差问题。
-
公开(公告)号:CN117058493A
公开(公告)日:2023-11-14
申请号:CN202311326470.2
申请日:2023-10-13
Applicant: 之江实验室
IPC: G06V10/774 , G06V10/40 , G06V10/764 , G06V10/74 , G06V10/82 , G06N3/08
Abstract: 本申请涉及一种图像识别的安全防御方法、装置和计算机设备。所述方法包括:在原图像识别模型的原始样本集中加入与原图像识别模型的梯度相反的噪音,得到模型训练集;随机抽取预设数量的模型训练集中的图像数据,分别输入到各个子专家网络模型中,得到数据特征;计算此组图像数据的准确率交叉熵损失函数、差异性损失函数和焦点稳定性损失函数;基于此组图像数据的准确率交叉熵损失函数、差异性损失函数和焦点稳定性损失函数,利用梯度下降法对多专家网络模型的参数进行更新;当多专家网络模型收敛时,得到用于图像识别的完备多专家网络模型。采用本方法能够解决现有技术中存在人工智能模型对于黑客攻击的防御效果差问题。
-
-
-
-
-