-
公开(公告)号:CN118152141B
公开(公告)日:2024-08-06
申请号:CN202410552711.3
申请日:2024-05-07
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F9/50
Abstract: 本发明公开了一种基于内存扩展系统的高维向量检索方法、系统、装置,涉及数据处理领域,为解决现有高维向量检索方案内存压力大、检索效率低的问题,该方法包括获取多个高维向量对应的向量数据及图数据;将多个高维向量对应的图数据写入主机内存,对每一高维向量对应的向量数据进行切片得到n份子数据,将n份子数据一一对应地写入n个设备内存中;在多个高维向量中确定查询向量以及多个当前候选向量;基于所有加速器设备计算的子距离得到每一当前候选向量和查询向量之间的总距离,将总距离最小的当前候选向量确定为查询向量的相似向量。本发明能够在降低大规模数据集造成的主机内存的压力的同时,保证检索精度,提高检索效率。
-
公开(公告)号:CN118152141A
公开(公告)日:2024-06-07
申请号:CN202410552711.3
申请日:2024-05-07
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F9/50
Abstract: 本发明公开了一种基于内存扩展系统的高维向量检索方法、系统、装置,涉及数据处理领域,为解决现有高维向量检索方案内存压力大、检索效率低的问题,该方法包括获取多个高维向量对应的向量数据及图数据;将多个高维向量对应的图数据写入主机内存,对每一高维向量对应的向量数据进行切片得到n份子数据,将n份子数据一一对应地写入n个设备内存中;在多个高维向量中确定查询向量以及多个当前候选向量;基于所有加速器设备计算的子距离得到每一当前候选向量和查询向量之间的总距离,将总距离最小的当前候选向量确定为查询向量的相似向量。本发明能够在降低大规模数据集造成的主机内存的压力的同时,保证检索精度,提高检索效率。
-
公开(公告)号:CN117971630A
公开(公告)日:2024-05-03
申请号:CN202410382408.3
申请日:2024-04-01
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F11/34 , G06F9/445 , G06F18/214
Abstract: 本发明公开了一种异构计算平台及其任务仿真与耗时预测方法、装置、设备,应用于异构计算领域。其中,方法包括获取异构计算平台采用层间并行方式执行目标任务的任务配置信息;调用预先构建的子任务训练耗时确定模型,根据任务配置信息中的目标任务特征确定各目标算力的子任务训练耗时信息。根据各目标算力的子任务训练耗时信息、任务配置信息中各子任务对应的目标算力及相应处理顺序,对采用层间并行方式执行目标任务的过程进行仿真,最后根据仿真结果确定目标任务的训练耗时预测结果。本发明可以解决相关技术并行训练任务的训练耗时无法精准预测的问题,能够实现精准预测层间并行训练任务的训练耗时。
-
公开(公告)号:CN117155928B
公开(公告)日:2024-02-09
申请号:CN202311423755.8
申请日:2023-10-31
Applicant: 浪潮电子信息产业股份有限公司
IPC: H04L67/10 , H04L67/1095 , H04L41/0894
Abstract: 本发明公开了一种通信任务处理方法、系统、设备、集群及可读存储介质,涉及分布式集群领域,为解决通信策略浪费节点内带宽的问题,该方法包括根据预设模型在分布式集群的各个设备上的部署策略,确定分布式集群中的发送节点和接收节点;当存在一个或多个通信任务,将各个通信任务一一对应分配给各个发送设备,对通信任务对应的任务数据进行划分得到多个分区数据,控制通信任务对应的发送设备将多个分区数据依次发送至一个接收节点;针对每一接收节点,控制接收节点对其接收到的分区数据在自身节点内的各个设备中进行数据同步,并将分区数据发送给未接收到分区数据的其他接收节点。本发明能够充分利用节点内的带宽,提升分布式集群的资源利用率。
-
公开(公告)号:CN116962438B
公开(公告)日:2024-01-23
申请号:CN202311220016.9
申请日:2023-09-21
Applicant: 浪潮电子信息产业股份有限公司
IPC: H04L67/1095 , H04L41/12 , H04L67/10 , G06F18/214
Abstract: 本发明公开了一种梯度数据同步方法、系统、电子设备及可读存储介质,涉及分布式集群领域,为解决特定逻辑拓扑的方案无法在随机网络中取得好的数据同步性能的问题,该方法包括:获取分布式训练集群的物理拓扑关系及当前数据同步算法对应的逻辑拓扑关系;将物理拓扑关系中的各物理拓扑节点一一映射到逻辑拓扑关系中的各逻辑拓扑节点,得到至少一个映射拓扑关系;计算当前数据同步算法基于每一映射拓扑关系进行梯度数据同步时的通信开销,将通信开销最小的映射拓扑关系确定为最优映射拓扑关系;基于最优映射拓扑关系和当前数据同步算法进行梯度数据同步。本发明能够提高任意一种随机网络中的梯度数据同步通信的效率,提高网络带宽利用率。
-
公开(公告)号:CN116701043B
公开(公告)日:2024-01-12
申请号:CN202310974735.3
申请日:2023-08-04
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F11/07 , G06F18/214
Abstract: 本发明涉及多元异构计算技术领域,公开了面向异构计算系统的故障节点切换方法、装置和设备,当检测到存活信息异常的故障节点时,收集网络带宽信息;根据存活信息和任务运行状态,确定出可用计算节点。依据各可用计算节点的参数量、计算耗时以及网络带宽信息,确定出各可用计算节点部署故障节点的分布式训练后的迭代耗时。基于迭代耗时、峰值算力以及平均耗时,从各可用计算节点中选取出替换节点,保证了在尽量不浪费计算资源并且尽量不影响计算效率的同时,选择出最优的替换节点;将故障节点所对应的训练模型和参数下发至替换节点,向替换节点部署故障节点所属的通信环和环连接顺序,使得替换节点代替故障节点工作,保证了训练任务的继续运行。
-
公开(公告)号:CN116980423A
公开(公告)日:2023-10-31
申请号:CN202311220749.2
申请日:2023-09-21
Applicant: 浪潮电子信息产业股份有限公司
IPC: H04L67/1008 , H04L67/101 , H04L67/1012 , H04L69/325 , G06N3/0464 , G06N3/08
Abstract: 本发明在深度学习技术领域公开了模型调度方法、装置、计算系统、设备及可读存储介质,该方法包括基于算力优先策略,将模型的网络层映射到计算系统的加速器上,得到调度策略;对特定网络层进行拟重映射,利用加速器的内存,对拟重映射后的调度策略进行通信延迟优化,并获取优化后的系统总延迟;在优化后的系统总延迟低于优化前的系统总延迟的情况下,基于拟重映射,更新重映射后的调度策略;按照重映射后更新的调度策略,对模型进行调度处理。本发明的技术效果:在牺牲较小的计算性能的情况下,获得较大的通信成本的降低,最终提升系统的整体性能,实现计算与通信的均衡,提高了计算和存储资源利用率。
-
公开(公告)号:CN116720544A
公开(公告)日:2023-09-08
申请号:CN202310974618.7
申请日:2023-08-04
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06N3/04 , G06N3/08 , G06F18/214
Abstract: 本发明提供基于异构计算系统的模型训练耗时预测方法、设备及系统,涉及神经网络领域,可根据异构计算系统中包含的各计算设备类型,设置对应的多个简化的子计算系统;随后,可将目标模型及训练数据下发至各子计算系统,并可控制各子计算系统利用该训练数据对目标模型共同进行多轮迭代训练,以对各子计算系统中的各计算设备对应的耗时信息及数据传输量进行记录;进而,本发明可将实际采集到的耗时信息、数据传输量与异构计算系统中的各计算设备间的通信带宽一同输入预设数学模型进行耗时预测,得到异构计算系统训练该目标模型的预测耗时,从而能够解决相关技术无法准确预测异构计算系统训练模型所需耗时的缺陷。
-
公开(公告)号:CN116701043A
公开(公告)日:2023-09-05
申请号:CN202310974735.3
申请日:2023-08-04
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F11/07 , G06F18/214
Abstract: 本发明涉及多元异构计算技术领域,公开了面向异构计算系统的故障节点切换方法、装置和设备,当检测到存活信息异常的故障节点时,收集网络带宽信息;根据存活信息和任务运行状态,确定出可用计算节点。依据各可用计算节点的参数量、计算耗时以及网络带宽信息,确定出各可用计算节点部署故障节点的分布式训练后的迭代耗时。基于迭代耗时、峰值算力以及平均耗时,从各可用计算节点中选取出替换节点,保证了在尽量不浪费计算资源并且尽量不影响计算效率的同时,选择出最优的替换节点;将故障节点所对应的训练模型和参数下发至替换节点,向替换节点部署故障节点所属的通信环和环连接顺序,使得替换节点代替故障节点工作,保证了训练任务的继续运行。
-
-
-
-
-
-
-
-