-
公开(公告)号:CN114936086B
公开(公告)日:2022-11-18
申请号:CN202210881811.1
申请日:2022-07-26
Applicant: 之江实验室
Abstract: 本发明公开了一种多计算中心场景下的任务调度器、调度方法及装置,通过感知计算中心当前和未来的资源使用情况,可以根据计算中心当前与未来一定时间内的资源占用情况,为提交到调度器的带截止日期的任务分配合适的计算中心,提前将用户计算任务下发到计算中心内;并在计算中心启动用户计算任务前,利用计算中心内专用硬件设备提前进行数据传输,将用户计算任务所依赖的数据提前下载至本计算中心内部的存储设备中,用户任务数据准备阶段无需依赖于计算中心宝贵的算力资源,从而实现计算资源和网络资源的灵活分配。本发明充分利用计算中心有限资源,实现方法简便,计算中心资源的使用率可以得到进一步的提升,且与具体计算任务无关。
-
公开(公告)号:CN113656333A
公开(公告)日:2021-11-16
申请号:CN202111221953.7
申请日:2021-10-20
Applicant: 之江实验室
IPC: G06F12/0893 , G06N3/08
Abstract: 本发明公开了一种加速深度学习训练任务数据载入的方法,该方法使用双随机序列方式,在每个训练周期开始时提前计算下一个周期的随机序列,并申请一块独立的内存提前缓存下一个周期初始阶段所需数据。根据当前周期的随机序列依次为神经网络准备数据的同时,可参照下一个周期的随机序列及时将下一个周期初始阶段所需数据依次从内存拷贝到缓存,使得下一个周期初始阶段所需的数据可全部从缓存获得。本发明不需修改现有深度学习的架构,实现简单,引入的计算开销小,缓存数据能全部命中且可被使用多次,从而减少从后端存储系统读取数据,并且训练周期数越多,此方法的加速效果越明显。
-
公开(公告)号:CN119336451A
公开(公告)日:2025-01-21
申请号:CN202411863321.4
申请日:2024-12-17
Applicant: 之江实验室
IPC: G06F9/455
Abstract: 本申请公开了一种分布式训练的集合通信控制方法、装置及介质,该方法包括:当参与数据归约的集群中,任意两个集群之间的计算节点数量的差距在预设范围内时,将第一集群内所有计算节点上的数据归约至指定计算节点上,指定计算节点的数量与计算节点数量最小的第二集群内计算节点的数量相同。控制指定计算节点与第二集群内的计算节点进行数据归约;控制指定计算节点与第一集群内除指定计算节点外的其他节点数据同步。由此,除计算节点数量最少的集群外的其他集群,先在集群内部进行一次归约,将数据归约至数量与各集群中最少节点的数量相同的指定计算节点上,保证跨集群归约时各集群节点相同,避免一些节点同时和多个节点归约,降低集合通信开销。
-
公开(公告)号:CN119576844B
公开(公告)日:2025-04-22
申请号:CN202510141804.1
申请日:2025-02-08
Applicant: 之江实验室
IPC: G06F15/163 , G06F15/16
Abstract: 本说明书公开了一种数据处理方法及装置。所述方法包括:集合通信集群中的任一计算节点接收上一个计算节点发送的第一数据切片,根据接收到的第一数据切片执行计算任务,并将独立于计算任务的待发送的任务数据拆分为多个不存在依赖关系的第二数据切片;依次将各第二数据切片发送给下一个计算节点,以使下一个计算节点在根据接收到的第二数据切片执行计算任务的同时,接收后续的第二数据切片;在根据计算节点中的全部任务数据执行计算任务后,得到目标计算结果。本方案有效提高了集合通信集群对数据进行传输和计算的整体效率。
-
公开(公告)号:CN119576844A
公开(公告)日:2025-03-07
申请号:CN202510141804.1
申请日:2025-02-08
Applicant: 之江实验室
IPC: G06F15/163 , G06F15/16
Abstract: 本说明书公开了一种数据处理方法及装置。所述方法包括:集合通信集群中的任一计算节点接收上一个计算节点发送的第一数据切片,根据接收到的第一数据切片执行计算任务,并将独立于计算任务的待发送的任务数据拆分为多个不存在依赖关系的第二数据切片;依次将各第二数据切片发送给下一个计算节点,以使下一个计算节点在根据接收到的第二数据切片执行计算任务的同时,接收后续的第二数据切片;在根据计算节点中的全部任务数据执行计算任务后,得到目标计算结果。本方案有效提高了集合通信集群对数据进行传输和计算的整体效率。
-
公开(公告)号:CN118585342B
公开(公告)日:2024-11-05
申请号:CN202411058896.9
申请日:2024-08-02
Applicant: 之江实验室
Abstract: 本说明书公开了一种并行训练中的计算方法、装置、存储介质、设备,应用于模型并行训练,模型包括若干模型层,模型层被部署于若干计算节点中,每个计算节点中部署的模型层包括常规层和弹性层,弹性层根据该计算节点的后置节点的常规层确定,针对任一计算节点,根据当前批次的训练样本以及该计算节点上部署的常规层,得到该计算节点的计算结果,若该计算节点的后置节点已完成对前一批次的训练样本的计算,将计算结果作为输出结果,否则,根据计算结果以及该计算节点的弹性层,得到该计算节点的输出结果,将输出结果传输给所述后置节点,可动态监控和调整计算节点的负载,减少整体计算过程的计算等待时间。
-
公开(公告)号:CN116777009B
公开(公告)日:2023-10-20
申请号:CN202311072311.4
申请日:2023-08-24
Applicant: 之江实验室
Abstract: 本申请涉及一种基于内存池的智能计算系统架构和并行训练方法,其中智能计算系统架构支持高速互联网络协议,包括:访问设备、适配器以及交换机;访问设备包括并行设备和存储设备;适配器用于将访问设备接入交换机,以在访问设备之间构建内存池进行内存共享;并行设备从内存池中读取训练集数据,对待训练模型进行并行训练,并将训练得到的模型梯度写入内存池;在内存池中加载存储设备的训练集数据,并基于模型梯度对待训练模型进行参数更新,通过在并行设备和存储设备之间构建内存池,在内存池中进行数据读取,以及待训练模型的参数更新,无需在每轮训练中对存储设备进行数据访问,解决了在并行训练中频繁的数据读取影响训练效率的问题。
-
公开(公告)号:CN116866918A
公开(公告)日:2023-10-10
申请号:CN202310876021.9
申请日:2023-07-17
Applicant: 之江实验室
IPC: H04W12/08 , H04W12/60 , H04W12/65 , H04W12/033 , H04L9/40
Abstract: 本申请涉及一种移动环境访问控制方法、装置、电子装置和存储介质,其中,该移动环境访问控制方法包括:获取用户端的用户移动环境的数据信息,并根据数据信息确定用户移动环境的信任度;基于属性基加密方法,根据用户移动环境的信任度,确定用户移动环境的数据端访问权限。通过本申请,解决了相关技术中当移动终端访问办公终端时,相关访问权限难以确定的问题。
-
公开(公告)号:CN116777009A
公开(公告)日:2023-09-19
申请号:CN202311072311.4
申请日:2023-08-24
Applicant: 之江实验室
Abstract: 本申请涉及一种基于内存池的智能计算系统架构和并行训练方法,其中智能计算系统架构支持高速互联网络协议,包括:访问设备、适配器以及交换机;访问设备包括并行设备和存储设备;适配器用于将访问设备接入交换机,以在访问设备之间构建内存池进行内存共享;并行设备从内存池中读取训练集数据,对待训练模型进行并行训练,并将训练得到的模型梯度写入内存池;在内存池中加载存储设备的训练集数据,并基于模型梯度对待训练模型进行参数更新,通过在并行设备和存储设备之间构建内存池,在内存池中进行数据读取,以及待训练模型的参数更新,无需在每轮训练中对存储设备进行数据访问,解决了在并行训练中频繁的数据读取影响训练效率的问题。
-
公开(公告)号:CN114943338A
公开(公告)日:2022-08-26
申请号:CN202210266429.X
申请日:2022-03-17
Abstract: 本发明公开了一种基于访问模式和熵感知的ReRAM推荐系统加速器映射方法及系统,本发明在推荐系统映射之前,对推荐系统负载的数据集进行访问模式的采样分析,充分利用嵌入表的访问模式来聚类嵌入向量,利用嵌入表的熵值来对映射在ReRAM加速器上的嵌入表进行混合量化,使得ReRAM加速器在有限的交叉阵列资源上执行推荐系统模型,解决内存瓶颈问题,从而加速整个推理过程并降低推理能耗。
-
-
-
-
-
-
-
-
-