针对梯度提升决策树外包推理的隐私保护方法

    公开(公告)号:CN115967526B

    公开(公告)日:2024-03-19

    申请号:CN202211324597.6

    申请日:2022-10-27

    Abstract: 本发明提供一种针对梯度提升决策树外包推理的隐私保护方法,模型拥有者将私密树转换后的GBDT模型发送至云服务器;用户通过哈希与加法同态密钥对待预测数据进行加密,将加密后的待预测数据发送至云服务器;云服务器和用户经过D轮通信执行安全比较协议,得到加密后的预测结果并发送至用户;用户解密后得到最终预测结果。更进一步的,在推理阶段的每一轮通信过程中,云服务器发送当前节点在密文下的预测值之前先进行随机树置换。本发明将轻量级哈希和加法同态加密技术用于梯度提升决策树的外包推理,定制了的安全比较和随机树置换协议,这些协议大幅加速了计算,降低了外包推理的通信成本,同时防止用户推断出与梯度提升决策树相关的隐私。

    一种使用多用户函数加密的安全联邦学习系统

    公开(公告)号:CN117478388A

    公开(公告)日:2024-01-30

    申请号:CN202311456164.0

    申请日:2023-11-03

    Abstract: 本发明公开了一种使用多用户函数加密的安全联邦学习系统,属于信息安全技术领域。本系统包括服务器、用户端和用于提供密钥管理服务的可信第三方,第三方进行初始化,计算公开参数;第三方生成密钥分发给用户所在的用户端,并根据本轮的用户意愿生成聚合密钥发送给服务器;用户端使用约定好的加密算法使用密钥对本地模型参数进行加密并发送给服务器;服务器确认满足聚合条件后,对接收到的模型参数加权聚合后得到全局模型,并把全局模型分发给参与训练的各个用户,完成本轮训练并等待下一轮训练。本发明在满足高模型精度、高效计算和通信小功耗的情况下,实现了安全聚合,保证了联邦学习过程中用户本地模型参数的机密性,且支持对用户的动态参与。

    一种基于安全两方计算S型函数的隐私保护方法

    公开(公告)号:CN116541878A

    公开(公告)日:2023-08-04

    申请号:CN202310470235.6

    申请日:2023-04-27

    Abstract: 本发明公开了一种基于安全两方计算S型函数的隐私保护方法,属于联邦学习的隐私保护技术领域。本发明在包括一个服务端和若干个客户端的联邦学习系统中,服务端响应于客户端发起的预测任务请求,将匹配于预测任务请求的神经网络模型下发给客户端;客户端基于本端的待预测数据,在本发明所设置的隐私保护数据分享的规则下通过与服务端之间的数据交互逐层完成本端对神经网络模型的前向推理运算,获取待预测数据的预测结果。本发明对联邦学习的模型训练过程中参与前向推理运算的相关参数,在服务端与客户端之间被双方以秘密分享方式存储的参数,计算后的结果仍以秘密分享方式存储,以此保证隐私安全。在一定的计算准确率下降低了计算量和通信开销。

    在联邦学习中移除非规则用户的隐私保护方法

    公开(公告)号:CN114239070B

    公开(公告)日:2023-07-21

    申请号:CN202111588461.1

    申请日:2021-12-23

    Abstract: 本发明公开了一种在联邦学习中移除非规则用户的隐私保护方法,属于信息安全技术领域。本发明包括不规则用户删除算法TrustIU和保护用户的敏感信息的加权聚合协议两个部分;TrustIU利用余弦相似度进行聚合,减少了不规则用户的负面影响,从而确保全局模型主要来源于高质量的数据;在TrustIU的基础上,本发明采用安全加权的定制密码协议聚合;此聚合方案通过使用双隐蔽隐私保护技术,确保了服务器只学习用户的梯度信息,而不会泄露其他隐私。本发明在具有良好的训练精度和效率的同时,对整个培训过程中对用户退出具有鲁棒性。

    针对梯度提升决策树外包推理的隐私保护方法

    公开(公告)号:CN115967526A

    公开(公告)日:2023-04-14

    申请号:CN202211324597.6

    申请日:2022-10-27

    Abstract: 本发明提供一种针对梯度提升决策树外包推理的隐私保护方法,模型拥有者将私密树转换后的GBDT模型发送至云服务器;用户通过哈希与加法同态密钥对待预测数据进行加密,将加密后的待预测数据发送至云服务器;云服务器和用户经过D轮通信执行安全比较协议,得到加密后的预测结果并发送至用户;用户解密后得到最终预测结果。更进一步的,在推理阶段的每一轮通信过程中,云服务器发送当前节点在密文下的预测值之前先进行随机树置换。本发明将轻量级哈希和加法同态加密技术用于梯度提升决策树的外包推理,定制了的安全比较和随机树置换协议,这些协议大幅加速了计算,降低了外包推理的通信成本,同时防止用户推断出与梯度提升决策树相关的隐私。

    一种改善智能合约字节码逆向工程效果的方法及装置

    公开(公告)号:CN113504940B

    公开(公告)日:2023-04-07

    申请号:CN202110854751.X

    申请日:2021-07-28

    Abstract: 本发明涉及区块链智能合约技术领域,提供了一种改善智能合约字节码逆向工程效果的方法及装置。本发明能够在已知函数签名的条件下,更好地改善编译器,提高智能合约逆向工程结果的可读性。主要方案包括步骤S1:使用Erays对合约字节码进行逆向工程,得到逆向后的代码;步骤S2:根据合约字节码中已知的函数签名,为逆向工程后得到代码的每个公共/外部函数添加函数id、参数类型,并生成参数列表;步骤S3:对于步骤S1中合约字节码中的每一个函数,使用有意义参数名替换无意义的变量名;步骤S4:针对赋值语句,如果将对应函数的参数赋值给变量,则将对应参数的类型添加到变量中;步骤S5:用简单的赋值语句替换由编译器生成用于访问参数的代码。

    面向非规则用户的保护隐私的联邦深度学习方法

    公开(公告)号:CN111581663B

    公开(公告)日:2022-05-03

    申请号:CN202010360559.0

    申请日:2020-04-30

    Abstract: 本发明提供一种面向非规则用户的保护隐私的联邦深度学习方法,包括步骤:1)系统设置步骤;2)迭代初始化步骤;3)更新加密的用户的可靠性;4)更新加密的汇总信息:服务器利用更新得到的加密的用户的可靠性信息为汇总结果的权重来更新各梯度的加密的汇总结果使得可靠性越低的用户对汇总结果的影响越小。本发明保护所有用户相关信息的隐私,并且减少用户在训练过程中因使用低质量数据的影响,同时确保用户相关信息的真实性。由服务器完成大部分计算,对于计算能力有限的终端用户来说非常友好,且对用户在整个训练过程中由于各种不可预知的原因而中途退出也具有鲁棒性。

    一种保护用户数据隐私的抗拜占庭攻击的联邦学习方法

    公开(公告)号:CN114239862A

    公开(公告)日:2022-03-25

    申请号:CN202111589802.7

    申请日:2021-12-23

    Abstract: 本发明提供一种保护用户数据隐私的抗拜占庭攻击的联邦学习方法,将服务器端分为两部分,计算服务器和服务提供服务器,由这两个服务器共同完成安全计算,各自得到有效性检测结果、反映服务器梯度方向与本地梯度方向相似性的余弦相似度结果,此过程中两中服务器无法通过各自的数据推算参与方的数据集内容,保护了用户数据隐私。同时,服务器端得到的通过有效性检测结果以及余弦相似度结果得到的聚合可信分数能有效完成接收数据筛选,剔除无效数据后更新全局模型。发明在进行联邦学习时技能保护用户数据隐私有能够抵御强拜占庭攻击,具有较高的扩展性和性能表现,能够满足不同规模的数据场景。

    在联邦学习中移除非规则用户的隐私保护方法

    公开(公告)号:CN114239070A

    公开(公告)日:2022-03-25

    申请号:CN202111588461.1

    申请日:2021-12-23

    Abstract: 本发明公开了一种在联邦学习中移除非规则用户的隐私保护方法,属于信息安全技术领域。本发明包括不规则用户删除算法TrustIU和保护用户的敏感信息的加权聚合协议两个部分;TrustIU利用余弦相似度进行聚合,减少了不规则用户的负面影响,从而确保全局模型主要来源于高质量的数据;在TrustIU的基础上,本发明采用安全加权的定制密码协议聚合;此聚合方案通过使用双隐蔽隐私保护技术,确保了服务器只学习用户的梯度信息,而不会泄露其他隐私。本发明在具有良好的训练精度和效率的同时,对整个培训过程中对用户退出具有鲁棒性。

    一种在联邦学习场景下的数据恢复攻击的方法

    公开(公告)号:CN113934578A

    公开(公告)日:2022-01-14

    申请号:CN202111266909.8

    申请日:2021-10-28

    Abstract: 本发明公开了一种在联邦学习场景下的数据恢复攻击的方法,涉及铣床辅助工具技术领域,解决现有依然无法从高压缩的梯度中进行数据恢复的技术问题,本方法包括两个部分,一个是离线训练和离线恢复,另一个是在线捕获部分;本发明相比于DLG方案,我们的方案可以应对高压缩的梯度依然可以实现数据恢复,这是因为DLG方案并没有挖掘梯度中的额外信息,而只将梯度用于最终的损失函数优化。而我们的GDRA充分挖掘了梯度中的信息,通过梯度推断出了原始数据的特征,从而弥补了压缩后的梯度所带来的信息损失的优点。

Patent Agency Ranking