卷积神经网络模型的计算方法及装置

    公开(公告)号:CN110796245A

    公开(公告)日:2020-02-14

    申请号:CN201911022124.9

    申请日:2019-10-25

    Abstract: 本发明提供了的一种卷积神经网络模型的计算方法及装置,该方法包括:通过获取卷积神经网络模型的训练任务的计算模型;然后,将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;再根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;最后,利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。达到了提高当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算的灵活性,提高计算速度的目的。

    异构系统中分布式任务内存分配方法、设备、介质及产品

    公开(公告)号:CN119621355B

    公开(公告)日:2025-05-13

    申请号:CN202510162976.7

    申请日:2025-02-14

    Abstract: 本发明公开了计算机技术领域内的一种异构系统中分布式任务内存分配方法、设备、介质及产品。本发明在不降低各个异构算力设备计算性能的最小访存带宽的约束下,针对参与同一分布式任务的多个异构算力设备实现了内存分配,既能保证各个异构算力设备执行分布式任务时的计算性能,又能完成内存分配,从而在异构系统中在平衡内存特性和算力设备计算能力的前提下实现了合理的内存分配,能够充分利用异构算力设备的计算性能,加速分布式任务处理效率。

    异构系统中分布式任务内存分配方法、设备、介质及产品

    公开(公告)号:CN119621355A

    公开(公告)日:2025-03-14

    申请号:CN202510162976.7

    申请日:2025-02-14

    Abstract: 本发明公开了计算机技术领域内的一种异构系统中分布式任务内存分配方法、设备、介质及产品。本发明在不降低各个异构算力设备计算性能的最小访存带宽的约束下,针对参与同一分布式任务的多个异构算力设备实现了内存分配,既能保证各个异构算力设备执行分布式任务时的计算性能,又能完成内存分配,从而在异构系统中在平衡内存特性和算力设备计算能力的前提下实现了合理的内存分配,能够充分利用异构算力设备的计算性能,加速分布式任务处理效率。

    基于分离式内存系统的内存调度方法、系统以及产品

    公开(公告)号:CN119149210B

    公开(公告)日:2025-03-14

    申请号:CN202411667145.7

    申请日:2024-11-21

    Abstract: 本发明公开了一种基于分离式内存系统的内存调度方法、系统以及产品,涉及内存调度技术领域。根据当前任务的需求参数和分离式内存系统的实际运行参数确定当前任务访问的目标内存设备,在实际部署内存设备之前,根据当前任务的执行的需求参数,实现对应不同任务的需求参数与分离式内存系统的实际运行参数初步确定当前任务待访问的目标内存设备。为了减小当前任务对应的访问时延,通过当前任务对应的目标计算加速器的历史调用次数和访问时延预估当前目标内存设备的访问代价,根据访问代价确定当前任务的调度内存设备,使每个任务对应的目标计算加速器访问的调度内存设备的访问代价较小,提高当前任务的目标计算加速器的访问执行效率。

    异构计算平台及其任务仿真与耗时预测方法、装置、设备

    公开(公告)号:CN117971630B

    公开(公告)日:2024-06-28

    申请号:CN202410382408.3

    申请日:2024-04-01

    Abstract: 本发明公开了一种异构计算平台及其任务仿真与耗时预测方法、装置、设备,应用于异构计算领域。其中,方法包括获取异构计算平台采用层间并行方式执行目标任务的任务配置信息;调用预先构建的子任务训练耗时确定模型,根据任务配置信息中的目标任务特征确定各目标算力的子任务训练耗时信息。根据各目标算力的子任务训练耗时信息、任务配置信息中各子任务对应的目标算力及相应处理顺序,对采用层间并行方式执行目标任务的过程进行仿真,最后根据仿真结果确定目标任务的训练耗时预测结果。本发明可以解决相关技术并行训练任务的训练耗时无法精准预测的问题,能够实现精准预测层间并行训练任务的训练耗时。

    一种任务分配方法、装置及电子设备和存储介质

    公开(公告)号:CN117806835B

    公开(公告)日:2024-06-04

    申请号:CN202410224929.6

    申请日:2024-02-29

    Abstract: 本申请公开了一种任务分配方法、装置及电子设备和存储介质,涉及计算机技术领域,该方法包括:获取分布式训练的物理节点集合、数据源集合、神经网络模型、事件树集合;确定多个事件树的总能耗,选择总能耗最小的事件树作为目标事件树;以最小化训练能耗为目标确定目标事件树的目标事件或数据源分配策略;其中,目标事件或数据源分配策略用于描述处理目标事件树中事件的物理节点或数据源分配的物理节点,训练能耗包括物理节点处理事件的能耗、不同事件之间的数据传输能耗;基于目标事件或数据源分配策略将数据源和目标事件树中的事件部署于对应的物理节点。本申请降低了分布式训练神经网络模型的能耗。

    一种任务分配方法、装置及电子设备和存储介质

    公开(公告)号:CN117806835A

    公开(公告)日:2024-04-02

    申请号:CN202410224929.6

    申请日:2024-02-29

    Abstract: 本申请公开了一种任务分配方法、装置及电子设备和存储介质,涉及计算机技术领域,该方法包括:获取分布式训练的物理节点集合、数据源集合、神经网络模型、事件树集合;确定多个事件树的总能耗,选择总能耗最小的事件树作为目标事件树;以最小化训练能耗为目标确定目标事件树的目标事件或数据源分配策略;其中,目标事件或数据源分配策略用于描述处理目标事件树中事件的物理节点或数据源分配的物理节点,训练能耗包括物理节点处理事件的能耗、不同事件之间的数据传输能耗;基于目标事件或数据源分配策略将数据源和目标事件树中的事件部署于对应的物理节点。本申请降低了分布式训练神经网络模型的能耗。

Patent Agency Ranking