-
公开(公告)号:CN105955891A
公开(公告)日:2016-09-21
申请号:CN201610259384.8
申请日:2016-04-25
Applicant: 华中科技大学
CPC classification number: G06F12/0246 , G06F21/79
Abstract: 本发明公开了一种双层磨损均衡方法及系统,适用于相变存储器内存。该方法具体为:外层负责整个内存存储区域逻辑地址到中间地址的映射,通过增加密钥的复杂度,可以在恶意程序探测出完整的密钥前变换密钥;内层负责在每个子区域内使用独立的代数磨损均衡方法,在低开销的情况下达到区域内的磨损均衡,解决由于相变存储器存在复位和置位操作的延时差别而泄露磨损均衡算法的密钥,降低内存系统安全性的问题。
-
公开(公告)号:CN104361068A
公开(公告)日:2015-02-18
申请号:CN201410621223.X
申请日:2014-11-06
Applicant: 华中科技大学
CPC classification number: G06F3/0641 , G06F9/3885
Abstract: 本发明公开了一种数据去重过程中的并行分块方法,其特征在于,包括:(1)将数据流中的文件分成多个定长的数据段,所述数据段的长度大于数据分块的最大块长;(2)利用计算机多核处理器并行对每个数据段进行分块,每个数据段都通过分块获得多个数据块;(3)将最后一个数据段除外的每个数据段的最后一个数据块与后一个数据段的第一个数据块进行边界衔接处理。本发明提出的并行分块方法,采用一种新颖的边界衔接方法解决了传统分块方法的依赖性问题,以极小的去重率损失为代价,使得数据分块能并行进行,突破了数据去重计算的性能瓶颈。
-
公开(公告)号:CN103885859B
公开(公告)日:2017-09-26
申请号:CN201410089576.X
申请日:2014-03-12
Applicant: 华中科技大学
IPC: G06F11/14
Abstract: 本发明公开了一种基于全局统计的去碎片方法,包括:确定待备份的数据流中的各重复数据块,统计各重复数据块所对应的被引用段中所有被引用数据的长度,得到段引用缓冲区;计算待备份的数据流中的各重复数据块所对应的被引用段中所有被引用数据的长度与该被引用段的长度的比值,并判断该比值是否小于设定阈值,若是则将该重复数据块写入段中。本发明还提供了一种基于全局统计的去碎片系统。本发明统计得到各重复数据块所对应的被引用段中所有被引用数据的长度,并计算各重复数据块所对应的被引用段的段引用率,将段引用率小于设定阈值的数据段所对应的重复数据块判定为数据碎片,将这些数据碎片写入段中,可达到去碎片以提高恢复性能的目的。
-
公开(公告)号:CN109408288B
公开(公告)日:2020-07-10
申请号:CN201811148083.3
申请日:2018-09-29
Applicant: 华中科技大学
IPC: G06F11/14 , G06F16/174
Abstract: 本发明公开了一种打包文件备份过程中数据去重碎片消除方法,由于打包数据集的特性,导致大量被重写的碎片块在之后的备份过程中,仍然被识别为碎片块,因此被重写算法不断地重复重写,这种被反复重写的碎片块,我们称为持久性碎片块,它会严重降低系统的恢复性能。因此我们首先识别持久性碎片块,然后构建了碎片容器用于存储持久性碎片块、正常容器用于存储非持久性碎片块。大量持久性碎片块不是碎片块,写入碎片块数量会减小,容器的平均利用率会增加,重复重写率得到下降;容器包含了更多的有效块,需要读取的容器数量减少了,恢复性能得到显著提高。
-
公开(公告)号:CN107659401B
公开(公告)日:2019-08-30
申请号:CN201710963426.0
申请日:2017-10-09
Applicant: 华中科技大学
Abstract: 本发明公开了一种相似性感知的安全数据去重加密方法,包括:利用文件相似性将数据块聚合成较大单元的数据段。每个数据段采用抽样算法和相似性检测提取一个代表哈希;采用不经意的伪随机协议,产生数据段的隐私信息。结合数据段隐私信息和数据块的哈希值快速产生数据块密钥,并加密数据块得到密文。对密文计算指纹和重复块检查。因此,本发明结合相似段检测和重复块检查,避免代表哈希的隐私泄露,保证数据安全性和数据去重的压缩率;同时在数据段级采用安全高开销的不经意伪随机协议保证密钥安全,在数据块级采用低开销方法快速地产生密钥,从而减少数据加密时间开销,并提高系统的数据上传性能。
-
公开(公告)号:CN109271353A
公开(公告)日:2019-01-25
申请号:CN201811039023.8
申请日:2018-09-06
Applicant: 华中科技大学
IPC: G06F16/174
Abstract: 本发明公开了一种在数据去重过程中选择性重写自引用块的方法及系统,包括:获取数据去重过程中的重复块和上次备份的容器总数;判断重复块所在容器ID是否超过上次备份的容器总数,若是,则重复块是自引用块,否则,重复块不是自引用块;创建用于模拟恢复缓存的缓冲区,查找自引用块所在容器ID是否存在于所述缓冲区中,若是,自引用块不是内部碎片块,否则,自引用块是内部碎片块;根据内部碎片块所在容器的利用率是否低于预设阈值,若是,所述内部碎片块将被重写到容器,否则,所述自引用块无需被重写到容器。本发明通过模拟恢复缓存来识别内部碎片块,选择性重写部分内部碎片块来限制重写数量,使得容器利用率增加,恢复性能得到显著提高。
-
公开(公告)号:CN105955891B
公开(公告)日:2018-12-14
申请号:CN201610259384.8
申请日:2016-04-25
Applicant: 华中科技大学
Abstract: 本发明公开了一种双层磨损均衡方法及系统,适用于相变存储器内存。该方法具体为:外层负责整个内存存储区域逻辑地址到中间地址的映射,通过增加密钥的复杂度,可以在恶意程序探测出完整的密钥前变换密钥;内层负责在每个子区域内使用独立的代数磨损均衡方法,在低开销的情况下达到区域内的磨损均衡,解决由于相变存储器存在复位和置位操作的延时差别而泄露磨损均衡算法的密钥,降低内存系统安全性的问题。
-
公开(公告)号:CN104572872B
公开(公告)日:2017-08-25
申请号:CN201410803454.2
申请日:2014-12-19
Applicant: 华中科技大学
IPC: G06F17/30
Abstract: 本发明公开了一种基于极值的数据去重分块方法,其特征在于,包括:本发明是现有分块方法的改进,与现有分块方法的不同之处在于:1、本方法在局部非对称区域而不是对称区域内寻找局部极值来解决边界偏移问题;2、本发明将拥有局部极值的位置(即极值点)放在数据块的中间而不是作为数据块的边界;3、本发明在遇到相等的极值时将最先出现的极值所在的位置作为极值点。前两个不同点使得本发明在判断切点时所需的操作极少,因此可获得远高于现有分块方法的吞吐量;第三个不同点使本发明能够检测并消除掉部分低熵字符串中的重复数据。此外,本发明生成的数据块的块长方差较小且无需强制块长限制,因此能获得与传统分块方法相当或更高的去重率。
-
公开(公告)号:CN104361068B
公开(公告)日:2017-06-16
申请号:CN201410621223.X
申请日:2014-11-06
Applicant: 华中科技大学
Abstract: 本发明公开了一种数据去重过程中的并行分块方法,其特征在于,包括:(1)将数据流中的文件分成多个定长的数据段,所述数据段的长度大于数据分块的最大块长;(2)利用计算机多核处理器并行对每个数据段进行分块,每个数据段都通过分块获得多个数据块;(3)将最后一个数据段除外的每个数据段的最后一个数据块与后一个数据段的第一个数据块进行边界衔接处理。本发明提出的并行分块方法,采用一种新颖的边界衔接方法解决了传统分块方法的依赖性问题,以极小的去重率损失为代价,使得数据分块能并行进行,突破了数据去重计算的性能瓶颈。
-
公开(公告)号:CN104917609A
公开(公告)日:2015-09-16
申请号:CN201510257654.7
申请日:2015-05-19
Applicant: 华中科技大学
Abstract: 本发明提供了一种基于用户感知的高效安全数据去重方法,包括:客户端采用密钥服务器协助的基于哈希的收敛加密进行跨用户文件级数据去重;若文件不重复采用用户协助的收敛加密进行用户内部的块级去重;采用多级密钥管理,使用文件级密钥加密块级密钥,使用秘密共享将文件级密钥切分成分片级密钥存储到分布式密钥服务器。本发明还提供了一种基于用户感知的高效安全数据去重系统。本发明通过在文件级采用密钥服务器协助的基于哈希的收敛加密和在块级采用用户协助的收敛加密添加随机信息,使用户文件级和块级密钥随机化,能有效地抵抗敌手的暴力破解攻击,保证用户数据机密性和安全性;采用多级密钥管理方案保证密钥安全性,减少密钥空间开销。
-
-
-
-
-
-
-
-
-