一种相似性感知的安全数据去重加密方法

    公开(公告)号:CN107659401B

    公开(公告)日:2019-08-30

    申请号:CN201710963426.0

    申请日:2017-10-09

    Abstract: 本发明公开了一种相似性感知的安全数据去重加密方法,包括:利用文件相似性将数据块聚合成较大单元的数据段。每个数据段采用抽样算法和相似性检测提取一个代表哈希;采用不经意的伪随机协议,产生数据段的隐私信息。结合数据段隐私信息和数据块的哈希值快速产生数据块密钥,并加密数据块得到密文。对密文计算指纹和重复块检查。因此,本发明结合相似段检测和重复块检查,避免代表哈希的隐私泄露,保证数据安全性和数据去重的压缩率;同时在数据段级采用安全高开销的不经意伪随机协议保证密钥安全,在数据块级采用低开销方法快速地产生密钥,从而减少数据加密时间开销,并提高系统的数据上传性能。

    一种双层磨损均衡方法及系统

    公开(公告)号:CN105955891B

    公开(公告)日:2018-12-14

    申请号:CN201610259384.8

    申请日:2016-04-25

    Abstract: 本发明公开了一种双层磨损均衡方法及系统,适用于相变存储器内存。该方法具体为:外层负责整个内存存储区域逻辑地址到中间地址的映射,通过增加密钥的复杂度,可以在恶意程序探测出完整的密钥前变换密钥;内层负责在每个子区域内使用独立的代数磨损均衡方法,在低开销的情况下达到区域内的磨损均衡,解决由于相变存储器存在复位和置位操作的延时差别而泄露磨损均衡算法的密钥,降低内存系统安全性的问题。

    一种基于极值的数据去重分块方法

    公开(公告)号:CN104572872B

    公开(公告)日:2017-08-25

    申请号:CN201410803454.2

    申请日:2014-12-19

    Abstract: 本发明公开了一种基于极值的数据去重分块方法,其特征在于,包括:本发明是现有分块方法的改进,与现有分块方法的不同之处在于:1、本方法在局部非对称区域而不是对称区域内寻找局部极值来解决边界偏移问题;2、本发明将拥有局部极值的位置(即极值点)放在数据块的中间而不是作为数据块的边界;3、本发明在遇到相等的极值时将最先出现的极值所在的位置作为极值点。前两个不同点使得本发明在判断切点时所需的操作极少,因此可获得远高于现有分块方法的吞吐量;第三个不同点使本发明能够检测并消除掉部分低熵字符串中的重复数据。此外,本发明生成的数据块的块长方差较小且无需强制块长限制,因此能获得与传统分块方法相当或更高的去重率。

    一种基于用户感知的高效安全数据去重方法及系统

    公开(公告)号:CN104917609A

    公开(公告)日:2015-09-16

    申请号:CN201510257654.7

    申请日:2015-05-19

    Abstract: 本发明提供了一种基于用户感知的高效安全数据去重方法,包括:客户端采用密钥服务器协助的基于哈希的收敛加密进行跨用户文件级数据去重;若文件不重复采用用户协助的收敛加密进行用户内部的块级去重;采用多级密钥管理,使用文件级密钥加密块级密钥,使用秘密共享将文件级密钥切分成分片级密钥存储到分布式密钥服务器。本发明还提供了一种基于用户感知的高效安全数据去重系统。本发明通过在文件级采用密钥服务器协助的基于哈希的收敛加密和在块级采用用户协助的收敛加密添加随机信息,使用户文件级和块级密钥随机化,能有效地抵抗敌手的暴力破解攻击,保证用户数据机密性和安全性;采用多级密钥管理方案保证密钥安全性,减少密钥空间开销。

    一种基于全局统计的去碎片方法及系统

    公开(公告)号:CN103885859A

    公开(公告)日:2014-06-25

    申请号:CN201410089576.X

    申请日:2014-03-12

    Abstract: 本发明公开了一种基于全局统计的去碎片方法,包括:确定待备份的数据流中的各重复数据块,统计各重复数据块所对应的被引用段中所有被引用数据的长度,得到段引用缓冲区;计算待备份的数据流中的各重复数据块所对应的被引用段中所有被引用数据的长度与该被引用段的长度的比值,并判断该比值是否小于设定阈值,若是则将该重复数据块写入段中。本发明还提供了一种基于全局统计的去碎片系统。本发明统计得到各重复数据块所对应的被引用段中所有被引用数据的长度,并计算各重复数据块所对应的被引用段的段引用率,将段引用率小于设定阈值的数据段所对应的重复数据块判定为数据碎片,将这些数据碎片写入段中,可达到去碎片以提高恢复性能的目的。

    一种适用于备份系统的安全数据去重方法和系统

    公开(公告)号:CN103530201A

    公开(公告)日:2014-01-22

    申请号:CN201310301670.2

    申请日:2013-07-17

    Abstract: 本发明公开了一种适用于备份系统的安全数据去重方法,包括:接收用户提交的备份请求,对需要备份的每个文件进行分块,以得到多个不同大小的数据块,使用哈希算法计算每个数据块的哈希值F1来作为数据块的加密密钥,再次使用哈希算法计算每个数据块哈希值F1的哈希值F2作为该数据块的指纹来识别重复数据块,并采用经典加密算法使用用户的私钥对数据块的哈希值F1进行加密以得到数据哈希值F1的密文E(F1)来保护数据块的加密密钥。将所有数据块指纹F2等顺序打包成指纹段发送传输到存储服务器。本发明中所有通信过程采用安全套接层协议。本发明通过采用该安全数据去重方法,能够保证在数据去重率不变的基础上,防止数据丢失、篡改等存储安全问题。

    一种磨损均衡感知的非易失内存加密系统

    公开(公告)号:CN106980799B

    公开(公告)日:2019-05-14

    申请号:CN201710141072.1

    申请日:2017-03-10

    Abstract: 本发明公开了一种磨损均衡感知的非易失内存加密系统,包括:存储区域、计数器缓存、加密引擎以及磨损均衡模块;计数器缓存,用于缓存行计数器和区域计数器;加密引擎,用于根据行计数器和区域计数器、物理行地址以及全局密钥产生一次性密钥;对于每个子存储区域,磨损均衡模块,用于在子存储区域中执行的写请求次数达到预设阈值时,把该子存储区域中一个物理行中的旧密文数据读出,将旧密文数据与一次性密钥异或得到新密文数据,最后将新密文数据写入新物理行,以完成重映射操作。利用磨损均衡模块的重映射操作来更新密钥和密文数据,最终达到利用较少的计数器就可以保障安全性的目的,降低了对非易失内存进行加密引入的存储和性能开销。

    一种磨损均衡感知的非易失内存加密系统

    公开(公告)号:CN106980799A

    公开(公告)日:2017-07-25

    申请号:CN201710141072.1

    申请日:2017-03-10

    Abstract: 本发明公开了一种磨损均衡感知的非易失内存加密系统,包括:存储区域、计数器缓存、加密引擎以及磨损均衡模块;计数器缓存,用于缓存行计数器和区域计数器;加密引擎,用于根据行计数器和区域计数器、物理行地址以及全局密钥产生一次性密钥;对于每个子存储区域,磨损均衡模块,用于在子存储区域中执行的写请求次数达到预设阈值时,把该子存储区域中一个物理行中的旧密文数据读出,将旧密文数据与一次性密钥异或得到新密文数据,最后将新密文数据写入新物理行,以完成重映射操作。利用磨损均衡模块的重映射操作来更新密钥和密文数据,最终达到利用较少的计数器就可以保障安全性的目的,降低了对非易失内存进行加密引入的存储和性能开销。

    一种基于极值的数据去重分块方法

    公开(公告)号:CN104572872A

    公开(公告)日:2015-04-29

    申请号:CN201410803454.2

    申请日:2014-12-19

    CPC classification number: G06F17/30489

    Abstract: 本发明公开了一种基于极值的数据去重分块方法,其特征在于,包括:本发明是现有分块方法的改进,与现有分块方法的不同之处在于:1、本方法在局部非对称区域而不是对称区域内寻找局部极值来解决边界偏移问题;2、本发明将拥有局部极值的位置(即极值点)放在数据块的中间而不是作为数据块的边界;3、本发明在遇到相等的极值时将最先出现的极值所在的位置作为极值点。前两个不同点使得本发明在判断切点时所需的操作极少,因此可获得远高于现有分块方法的吞吐量;第三个不同点使本发明能够检测并消除掉部分低熵字符串中的重复数据。此外,本发明生成的数据块的块长方差较小且无需强制块长限制,因此能获得与传统分块方法相当或更高的去重率。

Patent Agency Ranking