-
公开(公告)号:CN117350052A
公开(公告)日:2024-01-05
申请号:CN202311323632.7
申请日:2023-10-13
Applicant: 湖南大学
Abstract: 本发明公开了一种基于算力网络的算力服务能力模型构建方法,包括:获取多个算力资源,对获取的算力资源进行标准化处理,以得到多个资源描述三元组 ,所有资源描述三元组构成资源描述模型;获取所有算力资源的资源性能,并利用资源描述模型,对获取的所有算力资源的资源性能进行建模,以构建资源性能模型;获取所有算力资源的服务能力,并利用资源性能模型,对获取的所有算力资源的服务能力进行建模,以构建最终的算力服务能力模型。本发明能够解决现有算力网络在建模时,缺乏一套从算力资源开始一直到统一的算力服务能力模型的建模方式的技术问题;以及算力网络建模时没有考虑到算力度量前后操作的技术问题。
-
公开(公告)号:CN117290066A
公开(公告)日:2023-12-26
申请号:CN202311042472.9
申请日:2023-08-18
Applicant: 湖南大学
Abstract: 本发明公开了一种基于算力网络计算体系架构的调度方法,其从两个方面提高计算资源调度的效率,包括减少总调度时间和提高计算资源利用率:首先按照优先级为所有计算任务排序并获取优先级最高的计算任务作为待处理的计算任务。接着对于每个待处理的计算任务寻找符合要求的算力资源池。若不存在符合要求的算力资源池,则降低该计算任务的优先级并处理下一个计算任务。若只存在一个符合要求的算力资源池,则将唯一的算力资源池分配给该计算任务。若存在多个符合要求的算力资源池,则使用粒子群优化算法为计算任务获取算力资源池分配的全局最优解。
-
公开(公告)号:CN116090528A
公开(公告)日:2023-05-09
申请号:CN202211670584.4
申请日:2022-12-25
Applicant: 湖南大学
IPC: G06N3/063
Abstract: 本发明公开了一种面向AI的跨域数据并行训练调度方法。所述方法包括如下步骤:(1)在跨域多数据中心之间建立广域网,使各数据中心的参数服务器与全局参数服务器之间可以在广域网下互相通信;在单个数据中心内部建立高速局域网,使数据中心内的工作节点可以在高速局域网下通信;(2)基于步骤(1)搭建的通信网络,各数据中心在本地数据集上使用随机梯度下降算法训练本地的神经网络模型,在达到最大迭代次数后,聚合各数据中心的神经网络模型参数,得到全局神经网络模型参数。
-
公开(公告)号:CN116980419A
公开(公告)日:2023-10-31
申请号:CN202311041668.6
申请日:2023-08-18
Applicant: 湖南大学
IPC: H04L67/1001 , H04L67/61 , H04L45/00
Abstract: 本发明公开了一种算力网络下的分布式算力调度方法,包括:从客户端接收对某应用程序的资源分配请求,并对该资源分配请求进行解析,以获取业务算力需求以及业务网络需求,从当前网络节点获取算力网络的算力负载分担表,并对该算力负载分担表进行解析,以获取算力网络中各个站点的算力信息、以及算力网络的网络状态,根据业务算力需求、以及算力网络中各个站点的算力信息,对算力网络中的所有站点进行筛选,以获取算力状态值最佳的站点,根据业务网络需求以及算力网络的网络状态,对算力状态值最佳的站点进行网络服务质量QoS约束分布式路由计算。本发明能够解决现有基于算力路由层的集中式算力调度方案容易出现网络和算力两者分离的技术问题。
-
公开(公告)号:CN116090528B
公开(公告)日:2025-05-13
申请号:CN202211670584.4
申请日:2022-12-25
Applicant: 湖南大学
IPC: G06N3/063
Abstract: 本发明公开了一种面向AI的跨域数据并行训练调度方法。所述方法包括如下步骤:(1)在跨域多数据中心之间建立广域网,使各数据中心的参数服务器与全局参数服务器之间可以在广域网下互相通信;在单个数据中心内部建立高速局域网,使数据中心内的工作节点可以在高速局域网下通信;(2)基于步骤(1)搭建的通信网络,各数据中心在本地数据集上使用随机梯度下降算法训练本地的神经网络模型,在达到最大迭代次数后,聚合各数据中心的神经网络模型参数,得到全局神经网络模型参数。
-
-
-
-