-
公开(公告)号:CN114285722B
公开(公告)日:2023-08-25
申请号:CN202111508964.3
申请日:2021-12-10
申请人: 苏州浪潮智能科技有限公司
IPC分类号: H04L41/0631 , G06F16/27 , G06F16/23 , G06F16/215
摘要: 本发明涉及分布式存储领域,尤其涉及一种分布式存储集群节点通信告警方法、装置、设备及介质,所述方法包括:获取分布式存储集群管理节点维护的集群异常节点集合;接收客户端消息,其中,所述客户端消息中包括表征与所述客户端通信正常的第一节点集合和表征与所述客户端通信异常的第二节点集合;基于所述第一节点集合和所述第二节点集合对所述集群异常节点集合进行更新;根据更新后的异常节点集合进行通信异常告警。本发明的方案避免同一个节点上的不同客户端,通信正常的客户端将通信异常的客户端上报的节点通信告警误消除的问题,使得节点通信告警功能的覆盖场景更全面,提高了告警的可靠性。
-
公开(公告)号:CN114546286B
公开(公告)日:2023-08-08
申请号:CN202210182755.2
申请日:2022-02-27
申请人: 苏州浪潮智能科技有限公司
IPC分类号: G06F3/06
摘要: 本发明提供了一种归置组成员选择方法、系统、存储介质及设备,方法包括:为归置组的执行成员列表选择多个执行成员,且多个执行成员分别存放于执行成员列表中的多个位置,并在选择过程中记录每个位置的可选执行成员以及对应的故障域;响应于选择完成,基于多个故障域判断为多个位置选择的执行成员之间是否存在故障域冲突;响应于存在故障域冲突,遍历每个位置的可选执行成员,并记录不存在故障域冲突的若干可选执行成员组合;按照预设规则从若干可选执行成员组合中选择最佳组合,并将最佳组合中的多个可选执行成员作为选定的多个执行成员。本发明可以避免分布式存储系统的归置组在选取执行成员时发生故障域冲突的情况。
-
公开(公告)号:CN115858419B
公开(公告)日:2023-07-14
申请号:CN202310121707.7
申请日:2023-02-16
申请人: 苏州浪潮智能科技有限公司
IPC分类号: G06F12/0877 , G06F16/182 , G06F9/54
摘要: 本发明公开了一种元数据管理方法、装置、设备、服务器及可读存储介质,属于分布式文件存储系统领域,用于对元数据进行管理。为了减少数据处理节点的数量以及数据缓存量,本申请仅在DFS模块中设置了缓存,也即通过客户端与OSD之间具备缓存功能的各个DFS模块,实现了对客户端发送的元数据访问指令的处理,在自身本地缓存具有目标元数据时,便可以直接对本地缓存中的目标元数据进行处理,而在自身本地缓存中不具有目标元数据时,则可以直接从OSD中获取目标元数据并进行处理,利用一层缓存便实现了客户端对于元数据的各类访问请求,降低了数据跨越节点的数量并减少了数据的重复缓存,提升了工作效率的同时节省了资源。
-
公开(公告)号:CN111581288B
公开(公告)日:2023-01-06
申请号:CN202010378874.6
申请日:2020-05-07
申请人: 苏州浪潮智能科技有限公司
摘要: 本发明公开了一种对象克隆的方法、系统、设备和存储介质,方法包括:基于被克隆对象创建父对象,并建立父对象与被克隆对象的键值对数据的关联;基于父对象创建多个子对象,并建立多个子对象与父对象的键值对数据的关联;响应于在子对象中增加键值对数据,将待增加的键值对数据保存在子对象;以及响应于在子对象中删除键值对数据,基于子对象与父对象的关联将待删除的键值对数据及排在待删除的键值对数据后面的连续预定数量的键值对数据从父对象拷贝到子对象,并删除待删除的键值对数据。本发明提出的方案通过建立父对象来避免数据的拷贝,节省存储空间,并在删除键值对数据时只拷贝部分数据,降低了拷贝过程中产生的数据量。
-
公开(公告)号:CN111309525B
公开(公告)日:2023-01-06
申请号:CN202010112364.4
申请日:2020-02-24
申请人: 苏州浪潮智能科技有限公司
IPC分类号: G06F11/14
摘要: 本发明公开了一种控制数据恢复精度的方法、系统、设备和存储介质,方法包括在每一个周期中执行以下步骤:响应于存储引擎进行磁盘读写操作,使IO次数加一;基于写入速度设置第一阈值,并判断IO次数是否超过第一阈值;响应于IO次数不超过第一阈值,判断数据恢复的规模是否超过第二阈值;以及响应于数据恢复的规模超过第二阈值,暂停数据恢复并等待下一个周期开始。本发明提出的控制数据恢复精度的方法、系统、设备和存储介质通过控制一个周期内恢复数据的规模以及读取磁盘IO的次数来进行数据恢复速度的控制优化,能够保证数据恢复过程中的稳定性,降低磁盘占有率,提升磁盘利用率和数据恢复的精确度。
-
公开(公告)号:CN114490527A
公开(公告)日:2022-05-13
申请号:CN202111342936.9
申请日:2021-11-12
申请人: 苏州浪潮智能科技有限公司
IPC分类号: G06F16/14 , G06F16/16 , G06F16/178 , G06F16/182
摘要: 本发明涉及分布式存储技术领域,具体提供一种元数据检索方法、系统、终端及存储介质,包括:获取所有元数据的元数据信息,并将所有元数据信息保存至预先创建的内存数据结构;响应于元数据检索请求,元数据服务管理进程通过创建异步线程从所述内存数据结构检索目标元数据信息;根据所述目标元数据信息从元数据服务管理进程或元数据服务进程的缓存数据中查找目标元数据。本发明能够在满足在百亿级文件量的分布式存储系统快速查找满足条件的元数据;实现了更丰富的分类条件查找;显著降低了文件分类检索对整个分布式文件系统资源的开销。
-
公开(公告)号:CN114327299A
公开(公告)日:2022-04-12
申请号:CN202210192660.9
申请日:2022-03-01
申请人: 苏州浪潮智能科技有限公司
IPC分类号: G06F3/06
摘要: 本发明提供了一种基于ICFS分布式块存储系统的顺序读预读的方法、装置、设备及可读介质,该方法包括:响应于OSD接收到客户端下发的读请求,判断客户端下发的读请求是否为顺序读请求;响应于客户端下发的读请求为顺序读请求,根据读请求中待读取的数据对象创建预读滑动窗口;响应于预读滑动窗口创建完成,根据读请求中待读取的数据对象计算新的需要预读的卷对象;将计算出的新的需要预读的卷对象加入到预读滑动窗口的待预读对象队列中并执行预读。通过使用本发明的方案,能够提升ICFS分布式块存储系统的顺序读场景性能,提高了磁盘利用率。
-
公开(公告)号:CN114285722A
公开(公告)日:2022-04-05
申请号:CN202111508964.3
申请日:2021-12-10
申请人: 苏州浪潮智能科技有限公司
IPC分类号: H04L41/0631 , G06F16/27 , G06F16/23 , G06F16/215
摘要: 本发明涉及分布式存储领域,尤其涉及一种分布式存储集群节点通信告警方法、装置、设备及介质,所述方法包括:获取分布式存储集群管理节点维护的集群异常节点集合;接收客户端消息,其中,所述客户端消息中包括表征与所述客户端通信正常的第一节点集合和表征与所述客户端通信异常的第二节点集合;基于所述第一节点集合和所述第二节点集合对所述集群异常节点集合进行更新;根据更新后的异常节点集合进行通信异常告警。本发明的方案避免同一个节点上的不同客户端,通信正常的客户端将通信异常的客户端上报的节点通信告警误消除的问题,使得节点通信告警功能的覆盖场景更全面,提高了告警的可靠性。
-
公开(公告)号:CN114138209A
公开(公告)日:2022-03-04
申请号:CN202210115482.X
申请日:2022-02-07
申请人: 苏州浪潮智能科技有限公司
摘要: 本申请公开了一种部署OSD的方法、装置及计算机可读存储介质,涉及分布式存储技术领域。该方法包括:发送激活信号至OSD;从激活信号中解析并打开待用控制分区对应的第一块设备文件;若第一块设备文件成功打开,则在待用控制分区对应的块设备中打开第二块设备文件;判断第二块设备文件是否成功打开;若第二块设备文件成功打开,则控制OSD进行初始化。此时第一块设备文件和第二块设备文件都被占用,避免了在OSD初始化过程中用到第一块设备文件第二块设备文件的瞬间,找不到对应的块设备文件,从而造成OSD初始化失败的情况发生。同时解决了在初始化OSD的过程中避免不必要的人力浪费和时间成本的问题。
-
公开(公告)号:CN113722155A
公开(公告)日:2021-11-30
申请号:CN202111279481.0
申请日:2021-11-01
申请人: 苏州浪潮智能科技有限公司
IPC分类号: G06F11/14 , G06F16/182
摘要: 本申请公开了一种分布式文件系统内数据备份及修复方法、装置、设备及存储介质。该方法包括:通过分布式文件系统的管理软件,向分布式文件系统的目标监控模块发送数据库备份指令;利用目标监控模块根据数据库备份指令,将目标监控模块对应的监控数据库内的数据拷贝至管理软件发送的备份目录下,以便管理软件将备份目录下拷贝生成的备份文件存储至目标存储位置;通过管理软件监测分布式文件系统的状态,并根据状态和预设状态判断条件确定出待执行数据修复操作的待修复监控模块;通过管理软件从目标存储位置获取最新的备份文件,并将最新的备份文件存储至待修复监控模块对应的监控数据库,然后重启待修复监控模块,提高了分布式文件系统的容错能力。
-
-
-
-
-
-
-
-
-