一种异构算力环境下的模型训练任务分配方法及系统

    公开(公告)号:CN119376958A

    公开(公告)日:2025-01-28

    申请号:CN202411975476.7

    申请日:2024-12-31

    Abstract: 本发明属于分布式训练领域,提供了一种异构算力环境下的模型训练任务分配方法及系统,构建一个分层的深度强化学习模型,用于在终端层、边缘层和云计算层之间进行优化拆分点的选择和资源分配,从而实现高效的计算任务分配和模型训练。通过设计多个子策略网络来应对不同算力需求的任务。结合了资源感知模块,以衡量每层的计算资源、网络带宽和延迟等状态。启发式算法用于初步估计拆分点范围,减少无关位置的探索,优化搜索效率。针对神经网络模型计算所需要的资源,以浮点运算的数量来衡量。在拆分点的选择中,主要采取深度强化学习的方法结合资源感知模块,通过结构优化寻找最优的拆分点,以实现模型的有效拆分,并在两端侧完成高效的联合训练。

    一种协同任务卸载方法、系统、计算设备及介质

    公开(公告)号:CN117453310A

    公开(公告)日:2024-01-26

    申请号:CN202311428018.7

    申请日:2023-10-31

    Abstract: 本发明涉及一种协同任务卸载方法、系统、计算设备及介质,方法包括:获取系统当前时刻的多个目标卸载任务;根据各个目标卸载任务,确定每个目标卸载任务对应的待分配计算资源和卸载位置,以及根据卸载位置,确定目标卸载任务对应的奖惩参数;对于每个目标卸载任务,根据卸载位置,在对应的边缘服务器或云服务器上按照对应的待分配计算资源和对应的奖惩参数进行卸载。本申请中为每个目标卸载任务分配合理的时延或提前执行的时间,并合理调用各个边缘服务器协助云服务器卸载目标卸载任务,从而能够充分调度算力网络中每个边缘服务器的算力资源,满足大规模多样化算力膨胀式增长需求。

Patent Agency Ranking