-
公开(公告)号:CN110796245A
公开(公告)日:2020-02-14
申请号:CN201911022124.9
申请日:2019-10-25
Applicant: 浪潮电子信息产业股份有限公司
Abstract: 本发明提供了的一种卷积神经网络模型的计算方法及装置,该方法包括:通过获取卷积神经网络模型的训练任务的计算模型;然后,将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;再根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;最后,利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。达到了提高当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算的灵活性,提高计算速度的目的。
-
公开(公告)号:CN119621355B
公开(公告)日:2025-05-13
申请号:CN202510162976.7
申请日:2025-02-14
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F9/50
Abstract: 本发明公开了计算机技术领域内的一种异构系统中分布式任务内存分配方法、设备、介质及产品。本发明在不降低各个异构算力设备计算性能的最小访存带宽的约束下,针对参与同一分布式任务的多个异构算力设备实现了内存分配,既能保证各个异构算力设备执行分布式任务时的计算性能,又能完成内存分配,从而在异构系统中在平衡内存特性和算力设备计算能力的前提下实现了合理的内存分配,能够充分利用异构算力设备的计算性能,加速分布式任务处理效率。
-
公开(公告)号:CN119906869A
公开(公告)日:2025-04-29
申请号:CN202510387243.3
申请日:2025-03-31
Applicant: 浪潮电子信息产业股份有限公司
IPC: H04N21/472 , H04N19/20 , H04N21/44 , G06V20/40 , G06V10/62 , G06V10/80 , G06V10/82 , G06F40/30 , G06F18/22 , G06F18/23213 , G06N3/0464 , G06N3/0455 , G06N3/045
Abstract: 本申请公开了一种视频处理方法、设备、介质及程序产品,涉及计算机技术领域。本申请中,扩散模型能够感知到真实的初始视频中的相邻帧光流运动信息,相邻帧光流运动信息对应视频中的时序运动相关信息,那么扩散模型按照编辑信息以及相邻帧光流运动信息,将初始视频编辑为新视频,使得扩散模型既具备了真实视频的编辑能力,还借助视频中的时序运动相关信息提高了视频编辑精度,该方案无需调整模型参数,节约了计算资源和模型推理时间,因而也提高了视频编辑效率。
-
公开(公告)号:CN119621355A
公开(公告)日:2025-03-14
申请号:CN202510162976.7
申请日:2025-02-14
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F9/50
Abstract: 本发明公开了计算机技术领域内的一种异构系统中分布式任务内存分配方法、设备、介质及产品。本发明在不降低各个异构算力设备计算性能的最小访存带宽的约束下,针对参与同一分布式任务的多个异构算力设备实现了内存分配,既能保证各个异构算力设备执行分布式任务时的计算性能,又能完成内存分配,从而在异构系统中在平衡内存特性和算力设备计算能力的前提下实现了合理的内存分配,能够充分利用异构算力设备的计算性能,加速分布式任务处理效率。
-
公开(公告)号:CN119149210B
公开(公告)日:2025-03-14
申请号:CN202411667145.7
申请日:2024-11-21
Applicant: 浪潮电子信息产业股份有限公司
Abstract: 本发明公开了一种基于分离式内存系统的内存调度方法、系统以及产品,涉及内存调度技术领域。根据当前任务的需求参数和分离式内存系统的实际运行参数确定当前任务访问的目标内存设备,在实际部署内存设备之前,根据当前任务的执行的需求参数,实现对应不同任务的需求参数与分离式内存系统的实际运行参数初步确定当前任务待访问的目标内存设备。为了减小当前任务对应的访问时延,通过当前任务对应的目标计算加速器的历史调用次数和访问时延预估当前目标内存设备的访问代价,根据访问代价确定当前任务的调度内存设备,使每个任务对应的目标计算加速器访问的调度内存设备的访问代价较小,提高当前任务的目标计算加速器的访问执行效率。
-
公开(公告)号:CN117971630B
公开(公告)日:2024-06-28
申请号:CN202410382408.3
申请日:2024-04-01
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F11/34 , G06F9/445 , G06F18/214
Abstract: 本发明公开了一种异构计算平台及其任务仿真与耗时预测方法、装置、设备,应用于异构计算领域。其中,方法包括获取异构计算平台采用层间并行方式执行目标任务的任务配置信息;调用预先构建的子任务训练耗时确定模型,根据任务配置信息中的目标任务特征确定各目标算力的子任务训练耗时信息。根据各目标算力的子任务训练耗时信息、任务配置信息中各子任务对应的目标算力及相应处理顺序,对采用层间并行方式执行目标任务的过程进行仿真,最后根据仿真结果确定目标任务的训练耗时预测结果。本发明可以解决相关技术并行训练任务的训练耗时无法精准预测的问题,能够实现精准预测层间并行训练任务的训练耗时。
-
公开(公告)号:CN117806835B
公开(公告)日:2024-06-04
申请号:CN202410224929.6
申请日:2024-02-29
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F9/50 , G06F9/48 , G06N3/0464 , G06N3/084
Abstract: 本申请公开了一种任务分配方法、装置及电子设备和存储介质,涉及计算机技术领域,该方法包括:获取分布式训练的物理节点集合、数据源集合、神经网络模型、事件树集合;确定多个事件树的总能耗,选择总能耗最小的事件树作为目标事件树;以最小化训练能耗为目标确定目标事件树的目标事件或数据源分配策略;其中,目标事件或数据源分配策略用于描述处理目标事件树中事件的物理节点或数据源分配的物理节点,训练能耗包括物理节点处理事件的能耗、不同事件之间的数据传输能耗;基于目标事件或数据源分配策略将数据源和目标事件树中的事件部署于对应的物理节点。本申请降低了分布式训练神经网络模型的能耗。
-
公开(公告)号:CN117475038B
公开(公告)日:2024-04-19
申请号:CN202311827290.2
申请日:2023-12-28
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06T11/60 , G06N3/042 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/092 , G06N3/0985 , G06V10/26 , G06V20/70 , G06V10/30 , G06V10/82 , G06F18/22 , G06N3/094
Abstract: 本发明涉及人工智能领域,具体公开了一种图像生成方法、装置、设备及计算机可读存储介质,通过在初始文生图模型起,对每次迭代训练中的中间文生图模型,将第一样本文本输入中间文生图模型,得到第一中间图像输入图生文模型,得到第一预测文本,以第一预测文本与第一样本文本的文本相似度评分构建强化学习奖励函数来更新中间文生图模型的模型参数,直至迭代训练结束得到文生图模型,提供了一种采用文本相似度的评分方式,对生成图像具有更好的评价效果,并在此基础上采用强化学习的训练方案,使文生图模型在生成内容与文本描述不一致时能够自我学习修正,实现文本描述与生成内容的一致性,提高文生图模型生成图片的质量,更符合用户要求的效果。
-
公开(公告)号:CN117806835A
公开(公告)日:2024-04-02
申请号:CN202410224929.6
申请日:2024-02-29
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F9/50 , G06F9/48 , G06N3/0464 , G06N3/084
Abstract: 本申请公开了一种任务分配方法、装置及电子设备和存储介质,涉及计算机技术领域,该方法包括:获取分布式训练的物理节点集合、数据源集合、神经网络模型、事件树集合;确定多个事件树的总能耗,选择总能耗最小的事件树作为目标事件树;以最小化训练能耗为目标确定目标事件树的目标事件或数据源分配策略;其中,目标事件或数据源分配策略用于描述处理目标事件树中事件的物理节点或数据源分配的物理节点,训练能耗包括物理节点处理事件的能耗、不同事件之间的数据传输能耗;基于目标事件或数据源分配策略将数据源和目标事件树中的事件部署于对应的物理节点。本申请降低了分布式训练神经网络模型的能耗。
-
公开(公告)号:CN117155791B
公开(公告)日:2024-02-13
申请号:CN202311423735.0
申请日:2023-10-31
Applicant: 浪潮电子信息产业股份有限公司
IPC: H04L41/0894 , H04L41/14 , H04L41/12 , H04L41/0803 , H04L67/10
Abstract: 本发明公开了一种基于集群拓扑结构的模型部署方法、系统、设备及介质,涉及服务器集群领域,为解决跨中央处理器通信影响通信效率的问题,该方法包括基于服务器集群的配置信息生成拓扑结构树;按拓扑结构树确定各个中央处理器节点对应的算力,基于算力获取最优划分部署方案;按最优划分部署方案对预设模型按其网络层进行划分得到多个模型模块,将各个模型模块部署在各个中央处理器节点下的各个设备节点上,以使服务器集群的各个设备节点之间的通信开销最小。本发明能够使得跨中央处理器节点通信的数据量最小,以提升服务器集群中各个带宽
-
-
-
-
-
-
-
-
-