一种基于特征分布的模型训练方法和任务执行方法

    公开(公告)号:CN118691933B

    公开(公告)日:2024-11-15

    申请号:CN202411168955.8

    申请日:2024-08-23

    Abstract: 本说明书公开了一种基于特征分布的模型训练方法和任务执行方法。所述模型训练方法包括:客户端获取本地的各样本图像,并确定每个样本图像对应的标签信息;针对每个样本图像,将该样本图像输入待训练的本地分类模型,确定该样本图像对应的数据特征并确定分类结果;根据每个样本图像的标签信息,确定每个样本图像对应数据特征的数据分布,并根据数据分布确定个体数据特征,将个体数据特征发送给服务器,服务器根据接收到的各客户端发送的个体数据特征,确定全局数据特征,并将全局数据特征返回给各客户端;根据分类结果和标签信息的之间偏差,以及个体数据特征和全局数据特征之间的偏差,确定损失值;根据损失值对本地分类模型的模型参数进行更新。

    一种基于特征分布的模型训练方法和任务执行方法

    公开(公告)号:CN118691933A

    公开(公告)日:2024-09-24

    申请号:CN202411168955.8

    申请日:2024-08-23

    Abstract: 本说明书公开了一种基于特征分布的模型训练方法和任务执行方法。所述模型训练方法包括:客户端获取本地的各样本图像,并确定每个样本图像对应的标签信息;针对每个样本图像,将该样本图像输入待训练的本地分类模型,确定该样本图像对应的数据特征并确定分类结果;根据每个样本图像的标签信息,确定每个样本图像对应数据特征的数据分布,并根据数据分布确定个体数据特征,将个体数据特征发送给服务器,服务器根据接收到的各客户端发送的个体数据特征,确定全局数据特征,并将全局数据特征返回给各客户端;根据分类结果和标签信息的之间偏差,以及个体数据特征和全局数据特征之间的偏差,确定损失值;根据损失值对本地分类模型的模型参数进行更新。

    模型参数更新方法、装置、计算机设备和存储介质

    公开(公告)号:CN117057439A

    公开(公告)日:2023-11-14

    申请号:CN202310893300.6

    申请日:2023-07-20

    Abstract: 本申请涉及一种模型参数更新方法、装置、计算机设备和存储介质。所述方法包括:接收联邦学习服务端发送的针对各联邦学习客户端所共有的数据分布预测模型的参数更新指令;其中,参数更新指令携带数据分布预测模型的共享参数和特定参数;响应于参数更新指令,对共享参数和特定参数进行更新,得到更新后的共享参数和更新后的特定参数;将更新后的共享参数发送至联邦学习服务端,并将更新后的特定参数保留在本地;接收联邦学习服务端对共享参数聚合处理后发送的聚合共享参数;基于聚合共享参数和更新后的特定参数确定对应的目标共享参数和目标特定参数。采用本方法能够解决数据异质性问题,提高数据分布预测模型的准确性。

    一种基于标签分布的个性化联邦学习模型训练方法及装置

    公开(公告)号:CN117077817B

    公开(公告)日:2024-01-30

    申请号:CN202311328295.0

    申请日:2023-10-13

    Abstract: 本说明书公开了一种基于标签分布的个性化联邦学习模型训练方法及装置。所述任务执行方法包括:根据获取到的目标模型的初始化模型参数,针对每个客户端,将初始化模型参数发送给该客户端,以使该客户端在本地部署待训练模型,并通过该客户端的本地数据,对待训练模型进行训练,并获取各客户端训练更新后的模型参数,以及每个客户端训练各自的待训练模型时所使用的本地数据的标签分布,以得到每个客户端对应的客户端簇。针对每个客户端,融合该客户端对应的客户端簇中包含的各客户端发送的更新后的模型参数,并将融合后参数下发给该客户端,以使该客户端根据所述融合后参数,对本地(56)对比文件CN 115577360 A,2023.01.06CN 116471286 A,2023.07.21CN 113033820 A,2021.06.25CN 114758784 A,2022.07.15WO 2022162677 A1,2022.08.04WO 2022111639 A1,2022.06.02Sarhad Arisdakessian 等.TowardsInstant Clustering Approach for FederatedLearning Client Selection《.2023International Conference on Computing,Networking and Communications (ICNC)》.2023,409-413.郑美光 等.基于互信息软聚类的个性化联邦学习算法《.计算机工程》.2023,第49卷(第8期),20-28.何杨.物联网中基于联邦学习的数据共享关键技术研究 《.中国优秀硕士学位论文全文数据库 信息科技辑》.2023,第2023年卷(第2期),I136-1293.Pu Tian 等.WSCC: A Weight-Similarity-Based Client Clustering Approach for Non-IID Federated Learning《.IEEE Internet ofThings Iournal》.2022,第9卷(第20期),20243-20256.

    一种基于联邦多任务学习的模型训练方法、装置及设备

    公开(公告)号:CN117057442A

    公开(公告)日:2023-11-14

    申请号:CN202311298511.1

    申请日:2023-10-09

    Abstract: 本说明书公开了一种基于联邦多任务学习的模型训练方法、装置及设备,中心服务器将各客户端对应的初始模型参数发送给各客户端,以使各客户端对基于各自的初始模型参数得到的模型进行训练,并将训练后的模型的优化模型参数返回给中心服务器,中心服务器根据各客户端对应的优化模型参数,确定各客户端对应的对优化模型参数进行加权的权重,并根据各客户端对应的对各优化模型参数进行加权的权重,确定适用于各客户端的模型参数,得到适用于各客户端的模型。由于各客户端的数据分布存在差异,因此本方法在模型的每次迭代训练过程中,根据权重确定各客户端的模型参数,使得各客户端得到更加泛化的模型的同时,可得到适用于各自数据分布的个性化模型。

    一种分布式模型训练、业务执行方法、存储介质及设备

    公开(公告)号:CN118690209B

    公开(公告)日:2025-01-28

    申请号:CN202411168953.9

    申请日:2024-08-23

    Abstract: 本说明书公开了一种分布式模型训练、业务执行方法、存储介质及设备,可以获取预设的本地分类模型对各本地训练数据进行分类后所输出的每种分类结果对应的特征表示原型,将每种分类结果对应的特征表示原型以及本地分类模型的模型参数发送给中心服务器,以使中心服务器根据各下游设备发送的特征表示原型,确定每种分类结果对应的整体特征表示原型,以及,将各下游设备发送的模型参数融合,得到融合模型参数,进而可以通过对比学习的方式,根据中心服务器确定出的每种分类结果对应的整体特征表示原型,对本地分类模型进行训练,以提升联邦学习的训练效果。

    一种分布式模型训练、业务执行方法、存储介质及设备

    公开(公告)号:CN118690209A

    公开(公告)日:2024-09-24

    申请号:CN202411168953.9

    申请日:2024-08-23

    Abstract: 本说明书公开了一种分布式模型训练、业务执行方法、存储介质及设备,可以获取预设的本地分类模型对各本地训练数据进行分类后所输出的每种分类结果对应的特征表示原型,将每种分类结果对应的特征表示原型以及本地分类模型的模型参数发送给中心服务器,以使中心服务器根据各下游设备发送的特征表示原型,确定每种分类结果对应的整体特征表示原型,以及,将各下游设备发送的模型参数融合,得到融合模型参数,进而可以通过对比学习的方式,根据中心服务器确定出的每种分类结果对应的整体特征表示原型,对本地分类模型进行训练,以提升联邦学习的训练效果。

    一种基于标签分布的个性化联邦学习模型训练方法及装置

    公开(公告)号:CN117077817A

    公开(公告)日:2023-11-17

    申请号:CN202311328295.0

    申请日:2023-10-13

    Abstract: 本说明书公开了一种基于标签分布的个性化联邦学习模型训练方法及装置。所述任务执行方法包括:根据获取到的目标模型的初始化模型参数,针对每个客户端,将初始化模型参数发送给该客户端,以使该客户端在本地部署待训练模型,并通过该客户端的本地数据,对待训练模型进行训练,并获取各客户端训练更新后的模型参数,以及每个客户端训练各自的待训练模型时所使用的本地数据的标签分布,以得到每个客户端对应的客户端簇。针对每个客户端,融合该客户端对应的客户端簇中包含的各客户端发送的更新后的模型参数,并将融合后参数下发给该客户端,以使该客户端根据所述融合后参数,对本地部署的待训练模型进行参数更新,以通过更新后的模型执行目标任务。

Patent Agency Ranking