面向联邦学习数据投毒攻击的防御方法及装置

    公开(公告)号:CN113965359B

    公开(公告)日:2023-08-04

    申请号:CN202111152694.7

    申请日:2021-09-29

    Abstract: 本发明公开了一种面向联邦学习数据投毒攻击的防御方法及装置,方法包括:每个客户端使用本地数据训练模型参数;每个客户端将本地模型参数上传给服务器,服务器接收到所有的模型参数;服务器从中计算出一个用于比较的参考基准u,则对于任意的两个局部模型wa和wb,计算它们相对于参考基准u的相似度;采用内部投票的方法判断一个局部模型是否为恶意;根据每个局部模型所得的票数,计算每个局部模型的可信度;基于可信度的模型加权聚合,得到最终的全局模型,基于最终的全局模型实现数据投毒攻击的防御。本发明中,恶意客户端的模型会被赋予较低权重,在加权聚合时削弱它对全局模型的影响,从而实现针对数据投毒攻击的防御。

    基于梯度混洗的信息推荐方法及相关设备

    公开(公告)号:CN116383504A

    公开(公告)日:2023-07-04

    申请号:CN202310368921.2

    申请日:2023-04-03

    Abstract: 本发明公开了一种基于梯度混洗的信息推荐方法及相关设备,所述方法包括:获取目标对象的历史评分项目的参数;获取多个待推荐项目,根据所述历史评分项目的参数、多个所述待推荐项目和已训练的信息推荐模型获取各所述待推荐项目对应的推荐分数,其中,所述已训练的信息推荐模型在训练过程中各个训练客户端基于预设的梯度混洗方式对训练梯度参数进行梯度混洗,并上传至中心服务器进行训练;根据各所述待推荐项目对应的推荐分数从多个所述待推荐项目中选择获取目标推荐项目,并向所述目标对象推送所述目标推荐项目。本发明有利于在推荐数据的过程中提高用户数据的安全性,从而保护用户信息数据的隐私。

    基于深度回归抽象技术的虚拟遗憾策略求解方法及设备

    公开(公告)号:CN116212356A

    公开(公告)日:2023-06-06

    申请号:CN202310072057.1

    申请日:2023-01-12

    Abstract: 本发明公开了一种基于深度回归抽象技术的虚拟遗憾策略求解方法及设备,所述方法包括:构建回归器网络,将回归器网络进行初始化并遍历博弈树收集历史数据;根据蓄水池采样方法对历史数据进行采样得到训练集,并基于训练集的数据对回归器网络进行训练;当回归器网络的训练次数达到最大训练轮次时停止训练,得到目标回归器网络,并获取深度回归虚拟遗憾最小化算法的到达概率,目标回归器网络根据到达概率计算得到平均策略。本发明使用神经网络作为回归器生成虚拟遗憾最小化算法迭代所需的遗憾值,减少信息抽象的影响,并使得算法无需存储大型表格,减少了算法的存储资源开销,同时利用神经网络的拟合能力也提升了算法的通用性与泛化性。

    一种细粒度专家行为模仿学习方法、装置、介质及终端

    公开(公告)号:CN115688858A

    公开(公告)日:2023-02-03

    申请号:CN202211285500.5

    申请日:2022-10-20

    Abstract: 本发明公开了一种细粒度专家行为模仿学习方法、装置、介质及终端,方法包括,获取智能体的当前环境状态信息,将当前环境状态信息输入到预设预测网络模型中,以得到预测信息,根据预测信息控制智能体执行相应动作,采集任务完成情况信息和当前动作的状态信息;根据动作的状态信息计算单次奖励值,根据任务完成情况信息计算任务奖励值;根据单次奖励值及任务奖励值训练预设预测网络模型,将任务奖励值和每局若干单次奖励值相加,得到总奖励值,当总奖励值大于阈值时,完成对预设预测网络模型的训练并将输出的策略返回,上述方法降低了训练难度、提高了训练效率,无需采集大量专家数据即可在高维状态、动作空间中学习到接近专家行为模式的策略。

    基于事后回顾和渐进式扩展的持续强化学习非完全信息博弈方法及装置

    公开(公告)号:CN114048834B

    公开(公告)日:2023-01-17

    申请号:CN202111303694.2

    申请日:2021-11-05

    Abstract: 本发明公开了一种基于事后回顾和渐进式扩展的持续强化学习非完全信息博弈方法及装置,包括下述步骤:获取非完全博弈环境,确定任务目标;构建第一神经网络和基于未来值预测的强化学习方法;构建事后经验回顾池;对第一神经网络进行训练,直至第一神经网络收敛;构建渐进式神经网络,实现网络模型的渐进式扩展;选择下一个任务作为任务目标,利用基于未来值预测的强化学习方法持续训练,直至所有的任务都训练完成。本发明通过使用非完全信息博弈场景中丰富的智能体状态变化作为监督信号,解决该环境下的奖励稀疏问题,同时引入持续学习框架渐进式神经网络对未来值预测网络结构进行动态扩展,解决了在该环境下的多任务场景中的灾难性遗忘的问题。

    多智能体信息融合方法、装置、电子设备及可读存储介质

    公开(公告)号:CN114139637B

    公开(公告)日:2022-11-04

    申请号:CN202111470623.1

    申请日:2021-12-03

    Abstract: 本申请公开了一种多智能体信息融合方法、装置、电子设备及可读存储介质。其中,方法包括构建操作预测网络模型和门控注意力机制模型,门控注意力机制模型根据不同来源信息以交互过程中学习的比例进行融合,且各智能体基于自身数据和通信信息融合结果共同确定是否接收通信信息融合结果。将多智能体应用模拟环境的状态信息输入至操作预测网络模型,得到各智能体的预测动作;根据多智能体应用模拟环境基于各智能体的预测动作信息输出的各预测动作得分和下一时刻的状态信息、每个智能体的价值评估信息,基于门控注意力机制模型的强化学习算法更新操作预测网络模型,循环训练操作预测网络模型直至收敛。本申请提升了多智能体信息融合效果。

    一种用于图像处理模型版权保护的模型水印方法

    公开(公告)号:CN113554545A

    公开(公告)日:2021-10-26

    申请号:CN202110858190.0

    申请日:2021-07-28

    Abstract: 本发明涉及一种用于图像处理模型版权保护的模型水印方法,包括:获取一个训练完成的图像处理模型M(θ;·);在原始训练数据(X,Y)的GT图像集Y中嵌入一个不可见的水印w得到嵌入水印后的GT图像集Yw;然后在嵌入水印后的训练数据(X,Yw)上训练该模型来改变模型的参数为其嵌入水印,得到嵌入水印后的模型M(θw;·);方法还包括所有权验证,通过验证从触发图像中水印提取的成功率即可实现对经修改的模型或可疑模型SM的版权验证。能够实现对图像处理模型的版权保护,模型的保真性、唯一性和鲁棒性优异,具有很强的通用性,可用于任何输出是图像的模型的版权保护。

Patent Agency Ranking