联邦计算的处理方法、装置、电子设备和存储介质

    公开(公告)号:CN113537508B

    公开(公告)日:2024-02-02

    申请号:CN202110677839.9

    申请日:2021-06-18

    Abstract: 本公开提供了联邦计算的处理方法、装置、电子设备和存储介质,涉及人工智能技术领域,尤其涉及大数据、云计算、深度学习技术领域。具体实现方案为:基于待执行的任务标识,从每个参与方获取待处理的元数据;将每个元数据进行切分,以获取每个参与方对应的n个数据切片;根据每个参与方对应的n个数据切片,生成n个数据集;调用与任务标识对应的n个数据处理服务,以利用每个数据处理服务对每个数据集进行处理;根据每个数据处理服务的处理结果,确定任务标识对应的联邦计算结果。由此,在进行联邦计算时,通过利用数据并行的方式实现联邦学习的并行化,极大的提升了联邦计算的速度,为大规模数据隐私计算的使用提供了技术可行性。

    隐私数据共享方法和装置
    2.
    发明公开

    公开(公告)号:CN117278236A

    公开(公告)日:2023-12-22

    申请号:CN202210685356.8

    申请日:2022-06-15

    Abstract: 本公开提供了隐私数据共享方法和装置,涉及人工智能领域,尤其涉及区块链领域。具体实现方案为:创建通道并邀请至少一个参与方加入所述通道;安装并进行实例化智能合约;根据同态加密算法生成公钥和每个参与方的私钥,并将所述公钥和相应的私钥发送给每个参与方,以使得每个参与方使用所述公钥和相应的私钥对共享数据加密;从区块链获取每个参与方发送的密文并进行聚合,得到聚合密文;将所述聚合密文解密得到隐私求交集合;通过智能合约将隐私求交集合发布到区块链上。该实施方式通过区块链结合多方隐私集合求交的方法,可以在获取多方用户集合的同时,不会泄漏协同任务所求交集以外用户的任何身份信息,可以保护个体用户身份的隐私性。

    样本聚类处理方法、装置、设备及存储介质

    公开(公告)号:CN114528916A

    公开(公告)日:2022-05-24

    申请号:CN202210040713.5

    申请日:2022-01-14

    Abstract: 本公开提供了一种样本聚类处理方法、装置、设备及存储介质,涉及联邦学习与数据处理等技术领域。具体实现方案为:接收参与联邦学习的多个计算设备中各所述计算设备发送的本地样本距离信息;基于各所述计算设备的本地样本距离信息,获取样本的聚类信息;向各所述计算设备发送样本的聚类信息,以供各所述计算设备基于样本的聚类信息,将本地的各样本进行聚类处理。根据本公开的技术,能够有效地保证样本聚类处理的准确性和聚类精度。

    联邦学习方法、装置、服务器、电子设备及存储介质

    公开(公告)号:CN116090550B

    公开(公告)日:2024-03-22

    申请号:CN202211685935.9

    申请日:2022-12-27

    Inventor: 刘吉 霍超 窦德景

    Abstract: 本公开提供了一种联邦学习方法、装置、服务器、电子设备及存储介质,涉及人工智能技术领域,尤其涉及深度学习、联邦学习技术领域。具体实现方案为:通过服务器中设置的元模型向电子设备发送请求更新全局模型时的时隙,从而使电子设备在本地训练过程中根据该时隙获取更新的全局模型并与本地训练得到的局部模型进行聚合,从而使电子设备本地训练最终得到的局部模型与服务器中的全局模型版本更加接近,提高服务器中全局模型的收敛速度。

    数据处理、模型训练、检测、任务处理方法、设备及介质

    公开(公告)号:CN116386730A

    公开(公告)日:2023-07-04

    申请号:CN202310162483.4

    申请日:2023-02-23

    Abstract: 本公开提供了一种数据处理、模型训练、检测、任务处理方法、设备及介质,涉及人工智能技术领域,尤其涉及深度学习技术领域。具体实现方案为:获取第一目标蛋白质数据;利用水印蛋白质预训练模型处理第一目标蛋白质数据,得到第一目标编码向量;水印蛋白质预训练模型是训练完成的第一深度学习模型,训练完成的第一深度学习模型和训练完成的第二深度学习模型是利用样本蛋白质数据集交替训练第二深度学习模型和第一深度学习模型得到的,第一深度学习模型的训练过程和第二深度学习模型的训练过程相互影响;样本蛋白质数据集包括第一样本蛋白质数据集,第一样本蛋白质数据集是预定隐私数据集。

    联邦计算的处理方法、装置、电子设备和存储介质

    公开(公告)号:CN113537508A

    公开(公告)日:2021-10-22

    申请号:CN202110677839.9

    申请日:2021-06-18

    Abstract: 本公开提供了联邦计算的处理方法、装置、电子设备和存储介质,涉及人工智能技术领域,尤其涉及大数据、云计算、深度学习技术领域。具体实现方案为:基于待执行的任务标识,从每个参与方获取待处理的元数据;将每个元数据进行切分,以获取每个参与方对应的n个数据切片;根据每个参与方对应的n个数据切片,生成n个数据集;调用与任务标识对应的n个数据处理服务,以利用每个数据处理服务对每个数据集进行处理;根据每个数据处理服务的处理结果,确定任务标识对应的联邦计算结果。由此,在进行联邦计算时,通过利用数据并行的方式实现联邦学习的并行化,极大的提升了联邦计算的速度,为大规模数据隐私计算的使用提供了技术可行性。

    联邦学习方法、装置、服务器、电子设备及存储介质

    公开(公告)号:CN116090550A

    公开(公告)日:2023-05-09

    申请号:CN202211685935.9

    申请日:2022-12-27

    Inventor: 刘吉 霍超 窦德景

    Abstract: 本公开提供了一种联邦学习方法、装置、服务器、电子设备及存储介质,涉及人工智能技术领域,尤其涉及深度学习、联邦学习技术领域。具体实现方案为:通过服务器中设置的元模型向电子设备发送请求更新全局模型时的时隙,从而使电子设备在本地训练过程中根据该时隙获取更新的全局模型并与本地训练得到的局部模型进行聚合,从而使电子设备本地训练最终得到的局部模型与服务器中的全局模型版本更加接近,提高服务器中全局模型的收敛速度。

Patent Agency Ranking