-
公开(公告)号:CN116720544B
公开(公告)日:2023-11-07
申请号:CN202310974618.7
申请日:2023-08-04
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06N3/04 , G06N3/08 , G06F18/214
Abstract: 本发明提供基于异构计算系统的模型训练耗时预测方法、设备及系统,涉及神经网络领域,可根据异构计算系统中包含的各计算设备类型,设置对应的多个简化的子计算系统;随后,可将目标模型及训练数据下发至各子计算系统,并可控制各子计算系统利用该训练数据对目标模型共同进行多轮迭代训练,以对各子计算系统中的各计算设备对应的耗时信息及数据传输量进行记录;进而,本发明可将实际采集到的耗时信息、数据传输量与异构计算系统中的各计算设备间的通信带宽一同输入预设数学模型进行耗时预测,得到异构计算系统训练该目标模型的预测耗时,从而能够解决相关技术无法准确预测异构计算系统训练模型所需耗时的缺陷。
-
公开(公告)号:CN116644803B
公开(公告)日:2023-11-03
申请号:CN202310928131.5
申请日:2023-07-27
Applicant: 浪潮电子信息产业股份有限公司
Abstract: 本发明涉及计算机领域,具体公开了一种分布式协同训练控制方法、系统、装置、设备及存储介质,通过计算节点存储对模型网络的当前次迭代计算中的反向传播计算得到的各层梯度数据,在反向传播计算完毕后再自对应第一层模型网络的梯度数据起依次执行对各层梯度数据的梯度数据聚合操作得到各层聚合梯度数据,在利用接收到的当前次迭代计算的各层聚合梯度数据依次更新模型网络的各层模型参数时,即随着各层模型参数的更新执行对模型网络的下一次迭代计算的前向传播计算,达到下一次迭代计算的前向传播计算和当前次迭代计算的梯度数据聚合操作同时进行的效果,缩短了相邻两次迭代计算的执行时间,进而缩短了整体训练时间,提高了分布式训练效率。
-
公开(公告)号:CN116956756A
公开(公告)日:2023-10-27
申请号:CN202311220752.4
申请日:2023-09-21
Applicant: 浪潮电子信息产业股份有限公司
Abstract: 本发明涉及深度学习技术领域,并公开了模型部署方法、任务处理方法、装置、设备及存储介质,通过仿真模拟,计算出每一个分组划分策略下的每个组内并行策略的延迟,基于该延迟则可选出最优设备组划分策略和多个最优组内并行策略,并按照选出的策略进行部署,并记录下模型与设备的映射关系,则可满足延迟要求。又由于模型的部署不是一个模型对应一个设备,而是一个模型并行部署于多个设备之上,且一个设备又对应部署了多个模型。因而,在处理任务时,可以实现同一个模型的任务在多个设备上流水并行处理,不同模型的任务在多个设备上并行处理。即,可以在少量设备上满足延迟要求、提升处理效率、应对突发流量,能够极大的提升集群利用率。
-
公开(公告)号:CN116721221A
公开(公告)日:2023-09-08
申请号:CN202310987823.7
申请日:2023-08-08
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06T17/00 , G06T11/60 , G06T19/20 , G06V10/774 , G06V10/82 , G06V10/80 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种基于多模态的三维内容生成方法、装置、设备及存储介质,属于三维内容生成领域,用于实现基于多模态的数据生成三维内容,解决了只能基于文本数据生成三维内容的技术问题。本发明预先获取若干文本数据以及与文本数据一一对应的描述同一对象的目标模态数据,作为训练数据集,然后基于训练数据集、文本数据编码器以及目标模态数据编码器,对目标模态数据编码器进行训练,使得目标模态数据编码器提取出的目标模态数据的数据特征与文本数据提取出的文本数据的数据特征位于同一目标语义空间,如此一来,便可以将目标模态数据位于目标语义空间的数据特征转换为三维内容,满足了用户将多模态数据转换为三维内容的需求,提升了用户体验。
-
公开(公告)号:CN116708579A
公开(公告)日:2023-09-05
申请号:CN202310974630.8
申请日:2023-08-04
Applicant: 浪潮电子信息产业股份有限公司
Abstract: 本发明公开了一种数据访问方法、装置、电子设备及计算机可读存储介质,涉及大数据技术领域,旨在解决传统技术中由于不同协议的复杂转换所造成的服务效率低下和出错率大的问题,以有效保证用户体验,所述方法应用于协议转换器,包括:通过异构协议网络接口接收初始访问请求;根据所述初始访问请求确定异构协议类型;确定所述异构协议类型对应的目标解码器;利用所述目标解码器将所述初始访问请求转换为基于预设协议的数据访问请求;将所述数据访问请求发送至目标访问设备进行数据访问。
-
公开(公告)号:CN116229332A
公开(公告)日:2023-06-06
申请号:CN202310501619.X
申请日:2023-05-06
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06V20/40 , G06V10/82 , G06V10/764 , G06N20/00
Abstract: 本申请公开了一种视频预训练模型的训练方法、装置、设备及存储介质,涉及人工智能技术领域,该训练方法包括:采用初始视频上下文预测模型和上下文预测数据集进行训练,得到已训练的视频上下文预测模型中的第一编码器;采用基于所述第一编码器构建的初始视频跨模态模型和跨模态数据集进行训练,得到已训练的视频跨模态模型中的第二编码器;采用基于所述第二编码器构建的初始内容识别模型和内容识别数据集进行训练,得到已训练的内容识别模型中的第三编码器;将所述第三编码器作为视频预训练模型,以利用所述视频预训练模型对视频数据进行预处理。在相同效果的情况下减少了数据集的数量,提高了对视频预训练模型进行训练的效率。
-
公开(公告)号:CN115936095B
公开(公告)日:2023-05-23
申请号:CN202310135785.2
申请日:2023-02-20
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06N3/08
Abstract: 本申请涉及分布式模型训练技术领域,公开了一种参数梯度同步方法、装置、设备及存储介质,包括:获取基于分布式训练框架对待训练模型进行线上训练时执行控制逻辑得到的当前执行周期的响应列表;基于参数梯度分组列表对当前执行周期的响应列表中的张量数据进行均衡划分,得到当前执行周期的待融合组列表和暂不融合列表;对当前执行周期的待融合组列表中的各组张量数据进行张量融合及规约处理;将当前执行周期的暂不融合列表中的张量数据与下一个执行周期的响应列表中的张量数据进行合并得到下一个执行周期的新响应列表,以基于新响应列表对下一个执行周期进行张量融合及规约处理。能够提高模型训练过程中的网络带宽利用率及梯度数据同步性能。
-
公开(公告)号:CN116090551A
公开(公告)日:2023-05-09
申请号:CN202310202801.5
申请日:2023-03-06
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06N3/098
Abstract: 本申请公开了一种梯度数据同步方法及装置,涉及深度学习技术领域,包括:比较训练平台的第一个维度上的带宽与第二个维度上的带宽的大小;若带宽比较结果满足预设条件,则比较所述第一个维度上的负载与所述第二个维度上的负载的大小;根据负载比较结果,确定待聚合数据的调度顺序;根据所述调度顺序对所述待聚合数据块执行分层Allreduce操作,得到梯度数据同步结果。该方法能够提高分层Allreduce的整体宽带利用率,提高梯度数据的同步效率。
-
公开(公告)号:CN116028232A
公开(公告)日:2023-04-28
申请号:CN202310166793.3
申请日:2023-02-27
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F9/50
Abstract: 本发明公开了一种跨机柜服务器内存池化方法、装置、设备、服务器及介质,属于服务器领域,用于对服务器内存进行池化。考虑到同一服务器集群中不同服务器机柜的内存使用情况不同,本申请在不同服务器机柜间搭建了通信装置,服务器机柜可以向其他服务器机柜申请第一目标设备的内存使用权,在申请到内存使用权后,便可以实现跨机柜对于设备内存的使用,在不增加内存设备数量的基础上满足了各个服务器机柜的内存使用需求,且提升了资源利用率。
-
公开(公告)号:CN115953651A
公开(公告)日:2023-04-11
申请号:CN202310232993.4
申请日:2023-03-13
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06V10/774 , G06V10/82 , G06F17/16
Abstract: 本申请公开了一种基于跨域设备的模型训练方法、装置、设备及介质,涉及深度学习领域。该方法中,当属性信息与预测属性信息之间的差值时大于第一阈值,更新模型并使用更新后的模型再次对目标对象进行识别,当两者之间的差值小于或等于第一阈值,完成对模型的训练。在模型训练过程中,将第一费歇耳信息矩阵拆分为第二费歇耳矩阵,求解各第二费歇耳矩阵的逆矩阵,并进行迭代;在相邻两次迭代的改变量小于第二阈值时利用上一次迭代的第二费歇耳信息矩阵的第二逆矩阵作为当前次迭代的第二费歇耳信息矩阵的逆矩阵。可见,减小了迭代过程中的计算量以及费歇耳信息矩阵更新频率,较准确、高效地对目标对象进行识别;此外,避免了模型转存造成的资源浪费。
-
-
-
-
-
-
-
-
-