-
公开(公告)号:CN103885859A
公开(公告)日:2014-06-25
申请号:CN201410089576.X
申请日:2014-03-12
Applicant: 华中科技大学
IPC: G06F11/14
Abstract: 本发明公开了一种基于全局统计的去碎片方法,包括:确定待备份的数据流中的各重复数据块,统计各重复数据块所对应的被引用段中所有被引用数据的长度,得到段引用缓冲区;计算待备份的数据流中的各重复数据块所对应的被引用段中所有被引用数据的长度与该被引用段的长度的比值,并判断该比值是否小于设定阈值,若是则将该重复数据块写入段中。本发明还提供了一种基于全局统计的去碎片系统。本发明统计得到各重复数据块所对应的被引用段中所有被引用数据的长度,并计算各重复数据块所对应的被引用段的段引用率,将段引用率小于设定阈值的数据段所对应的重复数据块判定为数据碎片,将这些数据碎片写入段中,可达到去碎片以提高恢复性能的目的。
-
公开(公告)号:CN106980799B
公开(公告)日:2019-05-14
申请号:CN201710141072.1
申请日:2017-03-10
Applicant: 华中科技大学
Abstract: 本发明公开了一种磨损均衡感知的非易失内存加密系统,包括:存储区域、计数器缓存、加密引擎以及磨损均衡模块;计数器缓存,用于缓存行计数器和区域计数器;加密引擎,用于根据行计数器和区域计数器、物理行地址以及全局密钥产生一次性密钥;对于每个子存储区域,磨损均衡模块,用于在子存储区域中执行的写请求次数达到预设阈值时,把该子存储区域中一个物理行中的旧密文数据读出,将旧密文数据与一次性密钥异或得到新密文数据,最后将新密文数据写入新物理行,以完成重映射操作。利用磨损均衡模块的重映射操作来更新密钥和密文数据,最终达到利用较少的计数器就可以保障安全性的目的,降低了对非易失内存进行加密引入的存储和性能开销。
-
公开(公告)号:CN109408288A
公开(公告)日:2019-03-01
申请号:CN201811148083.3
申请日:2018-09-29
Applicant: 华中科技大学
IPC: G06F11/14 , G06F16/174
Abstract: 本发明公开了一种打包文件备份过程中数据去重碎片消除方法,由于打包数据集的特性,导致大量被重写的碎片块在之后的备份过程中,仍然被识别为碎片块,因此被重写算法不断地重复重写,这种被反复重写的碎片块,我们称为持久性碎片块,它会严重降低系统的恢复性能。因此我们首先识别持久性碎片块,然后构建了碎片容器用于存储持久性碎片块、正常容器用于存储非持久性碎片块。大量持久性碎片块不是碎片块,写入碎片块数量会减小,容器的平均利用率会增加,重复重写率得到下降;容器包含了更多的有效块,需要读取的容器数量减少了,恢复性能得到显著提高。
-
公开(公告)号:CN106980799A
公开(公告)日:2017-07-25
申请号:CN201710141072.1
申请日:2017-03-10
Applicant: 华中科技大学
CPC classification number: G06F21/79 , G06F3/0616 , G06F3/0679 , H04L9/0861 , H04L9/0866
Abstract: 本发明公开了一种磨损均衡感知的非易失内存加密系统,包括:存储区域、计数器缓存、加密引擎以及磨损均衡模块;计数器缓存,用于缓存行计数器和区域计数器;加密引擎,用于根据行计数器和区域计数器、物理行地址以及全局密钥产生一次性密钥;对于每个子存储区域,磨损均衡模块,用于在子存储区域中执行的写请求次数达到预设阈值时,把该子存储区域中一个物理行中的旧密文数据读出,将旧密文数据与一次性密钥异或得到新密文数据,最后将新密文数据写入新物理行,以完成重映射操作。利用磨损均衡模块的重映射操作来更新密钥和密文数据,最终达到利用较少的计数器就可以保障安全性的目的,降低了对非易失内存进行加密引入的存储和性能开销。
-
公开(公告)号:CN104572872A
公开(公告)日:2015-04-29
申请号:CN201410803454.2
申请日:2014-12-19
Applicant: 华中科技大学
IPC: G06F17/30
CPC classification number: G06F17/30489
Abstract: 本发明公开了一种基于极值的数据去重分块方法,其特征在于,包括:本发明是现有分块方法的改进,与现有分块方法的不同之处在于:1、本方法在局部非对称区域而不是对称区域内寻找局部极值来解决边界偏移问题;2、本发明将拥有局部极值的位置(即极值点)放在数据块的中间而不是作为数据块的边界;3、本发明在遇到相等的极值时将最先出现的极值所在的位置作为极值点。前两个不同点使得本发明在判断切点时所需的操作极少,因此可获得远高于现有分块方法的吞吐量;第三个不同点使本发明能够检测并消除掉部分低熵字符串中的重复数据。此外,本发明生成的数据块的块长方差较小且无需强制块长限制,因此能获得与传统分块方法相当或更高的去重率。
-
公开(公告)号:CN109271353B
公开(公告)日:2020-11-24
申请号:CN201811039023.8
申请日:2018-09-06
Applicant: 华中科技大学
IPC: G06F16/174
Abstract: 本发明公开了一种在数据去重过程中选择性重写自引用块的方法及系统,包括:获取数据去重过程中的重复块和上次备份的容器总数;判断重复块所在容器ID是否超过上次备份的容器总数,若是,则重复块是自引用块,否则,重复块不是自引用块;创建用于模拟恢复缓存的缓冲区,查找自引用块所在容器ID是否存在于所述缓冲区中,若是,自引用块不是内部碎片块,否则,自引用块是内部碎片块;根据内部碎片块所在容器的利用率是否低于预设阈值,若是,所述内部碎片块将被重写到容器,否则,所述自引用块无需被重写到容器。本发明通过模拟恢复缓存来识别内部碎片块,选择性重写部分内部碎片块来限制重写数量,使得容器利用率增加,恢复性能得到显著提高。
-
公开(公告)号:CN107659401A
公开(公告)日:2018-02-02
申请号:CN201710963426.0
申请日:2017-10-09
Applicant: 华中科技大学
Abstract: 本发明公开了一种相似性感知的安全数据去重加密方法,包括:利用文件相似性将数据块聚合成较大单元的数据段。每个数据段采用抽样算法和相似性检测提取一个代表哈希;采用不经意的伪随机协议,产生数据段的隐私信息。结合数据段隐私信息和数据块的哈希值快速产生数据块密钥,并加密数据块得到密文。对密文计算指纹和重复块检查。因此,本发明结合相似段检测和重复块检查,避免代表哈希的隐私泄露,保证数据安全性和数据去重的压缩率;同时在数据段级采用安全高开销的不经意伪随机协议保证密钥安全,在数据块级采用低开销方法快速地产生密钥,从而减少数据加密时间开销,并提高系统的数据上传性能。
-
公开(公告)号:CN104917609B
公开(公告)日:2017-11-10
申请号:CN201510257654.7
申请日:2015-05-19
Applicant: 华中科技大学
Abstract: 本发明提供了一种基于用户感知的高效安全数据去重方法,包括:客户端采用密钥服务器协助的基于哈希的收敛加密进行跨用户文件级数据去重;若文件不重复采用用户协助的收敛加密进行用户内部的块级去重;采用多级密钥管理,使用文件级密钥加密块级密钥,使用秘密共享将文件级密钥切分成分片级密钥存储到分布式密钥服务器。本发明还提供了一种基于用户感知的高效安全数据去重系统。本发明通过在文件级采用密钥服务器协助的基于哈希的收敛加密和在块级采用用户协助的收敛加密添加随机信息,使用户文件级和块级密钥随机化,能有效地抵抗敌手的暴力破解攻击,保证用户数据机密性和安全性;采用多级密钥管理方案保证密钥安全性,减少密钥空间开销。
-
-
-
-
-
-
-