分布式集群的通信方法、系统、电子设备及可读存储介质

    公开(公告)号:CN117155929B

    公开(公告)日:2024-02-09

    申请号:CN202311423771.7

    申请日:2023-10-31

    Abstract: 本发明公开了一种分布式集群的通信方法、系统、电子设备及可读存储介质,涉及分布式集群领域,为解决受网络带宽限制使得集群间通信效率低的问题,该通信方法包括:确定分布式集群中的参数更新节点以及多个子集群;针对每一子集群,获取子集群对预设模型的多个阶段依次进行计算得到的多个梯度数据;确定获取到的各个阶段的梯度数据的发送次序;按发送次序从先到后的顺序将梯度数据发送至参数更新节点,以便通过参数更新节点基于梯度数据执行参数更新操作。本发明能够实现对集群间的网络带宽的充分利用,从而提高通信效率。

    梯度数据同步方法、模型训练方法、系统、设备及介质

    公开(公告)号:CN116955365B

    公开(公告)日:2024-02-09

    申请号:CN202311220007.X

    申请日:2023-09-21

    Abstract: 本发明公开了一种梯度数据同步方法、模型训练方法、系统、设备及介质,涉及分布式集群领域,为解决梯度同步过程中通信效率低的问题,该方法包括:获取网络模型的当前网络层的梯度数据,对梯度数据在分布式训练集群的至少一个加速器节点中进行第一阶段梯度同步对应的第一同步操作,得到当前网络层对应的第一同步结果数据;将当前网络层的第一同步结果数据存储到第一阶段梯度同步结果队列;判断是否对所有网络层的梯度数据均完成第一同步操作;若是,对第一阶段梯度同步结果队列中的第一同步结果数据在分布式训练集群的至少一个加速器节点中进行第二阶段梯度同步对应的第二同步操作。本发明能够减少加速器节点之间的通信次数,提高通信效率。

    基于多模态预训练模型的三维内容生成方法及相关组件

    公开(公告)号:CN117473105A

    公开(公告)日:2024-01-30

    申请号:CN202311827111.5

    申请日:2023-12-28

    Abstract: 本申请公开了一种基于多模态预训练模型的三维内容生成方法及相关组件,涉及数据处理领域,用于解决生成三维内容速度慢的问题。该方案获取用户输入的目标文本描述;基于目标文本描述及多模态预训练模型在三维内容数据库中检索,确定第一三维内容并确定对应的第三文本描述;确定目标文本描述与第三文本描述间的文本描述差异;基于文本描述差异驱动第一三维内容变形,得到目标三维内容。本申请利用多模态预训练模型在三维内容数据库中进行检索,能够更快速地确定第一三维内容,再基于目标文本描述对其进行变形,得到与目标文本描述对应的目标三维内容,相比于从零生成三维内容,能够更快地生成符合要求的目标三维内容,提高了生成的效率和速度。

    一种生成式人工智能的因果思维链生成方法、装置及设备

    公开(公告)号:CN116862000B

    公开(公告)日:2024-01-23

    申请号:CN202311118754.2

    申请日:2023-09-01

    Abstract: 本发明公开了一种生成式人工智能的因果思维链生成方法、装置及设备,涉及生成式人工智能技术领域,以解决多模态输入的因果思维链难以生成的问题,该方法包括:根据获取的待预测图像和问题文本,利用预训练语言模型编码器,得到图文编码特征;对图文编码特征和初始化因果链向量进行因果链编码,得到因果链筛选特征;根据图文编码特征和因果链筛选特征,利用预训练语言模型解码器,获取因果链节点预测文本;本发明通过初始化因果链向量的设置,实现因果思维链的结构化构建,利用初始化因果链向量中因果思维链的因果节点和边对应的向量(56)对比文件Rengang Li et.al.AI-VQA:VisualQuestion Answering based on AgentInteraction with Interpretability.《Proceedings of the 30th ACMInternational Conference on Multimedia(MM ' 22》.2022,第5274-5282页.张飞飞 等.跨模态视觉问答与推理研究进展《.数据采集与处理》.2023,第1-20页.Sheng Zhang et.al.Multimodal feature-wise co-attention method for visualquestion answering《.Information Fusion》.2021,第73卷第1-10页.罗会兰;岳亮亮.跨层多模型特征融合与因果卷积解码的图像描述.中国图象图形学报.2020,(08),第96-109页.

    数据访问方法、装置、电子设备及计算机可读存储介质

    公开(公告)号:CN116708579B

    公开(公告)日:2024-01-12

    申请号:CN202310974630.8

    申请日:2023-08-04

    Abstract: 本发明公开了一种数据访问方法、装置、电子设备及计算机可读存储介质,涉及大数据技术领域,旨在解决传统技术中由于不同协议的复杂转换所造成的服务效率低下和出错率大的问题,以有效保证用户体验,所述方法应用于协议转换器,包括:通过异构协议网络接口接收初始访问请求;根据所述初始访问请求确定异构协议类型;确定所述异构协议类型对应的目标解码器;利用所述目标解码器将所述初始访问请求转换为基于预设协议的数据访问请求;将所述数据访

    异构计算系统、能耗确定方法、装置、电子设备及介质

    公开(公告)号:CN117349029A

    公开(公告)日:2024-01-05

    申请号:CN202311640960.X

    申请日:2023-12-04

    Abstract: 本发明公开了一种异构计算系统、能耗确定方法、装置、电子设备及介质,应用于异构计算领域。其中,系统包括主控制器、至少一个异构计算单元及能耗计算器。主控制器和各异构计算单元通过目标总线相连,并通过目标总线进行通信;能耗计算器在检测到主控制器将待处理任务分配至异构计算单元,根据待处理任务执行过程中的通信操作和计算操作,得到任务执行时序信息;根据任务执行时序信息,分别确定待处理任务过程执行过程中的动态能量消耗、各异构计算单元的静态功耗和通信功耗,从而得到异构计算系统的总能耗。本发明可以解决相关技术无法精准计算异构计算系统的模型计算任务的能耗的问题,可以有效提高异构计算系统的能耗确定精度。

    基于异构计算系统的模型训练耗时预测方法、设备及系统

    公开(公告)号:CN116720544B

    公开(公告)日:2023-11-07

    申请号:CN202310974618.7

    申请日:2023-08-04

    Abstract: 本发明提供基于异构计算系统的模型训练耗时预测方法、设备及系统,涉及神经网络领域,可根据异构计算系统中包含的各计算设备类型,设置对应的多个简化的子计算系统;随后,可将目标模型及训练数据下发至各子计算系统,并可控制各子计算系统利用该训练数据对目标模型共同进行多轮迭代训练,以对各子计算系统中的各计算设备对应的耗时信息及数据传输量进行记录;进而,本发明可将实际采集到的耗时信息、数据传输量与异构计算系统中的各计算设备间的通信带宽一同输入预设数学模型进行耗时预测,得到异构计算系统训练该目标模型的预测耗时,从而能够解决相关技术无法准确预测异构计算系统训练模型所需耗时的缺陷。

    分布式协同训练控制方法、系统、装置、设备及存储介质

    公开(公告)号:CN116644803B

    公开(公告)日:2023-11-03

    申请号:CN202310928131.5

    申请日:2023-07-27

    Abstract: 本发明涉及计算机领域,具体公开了一种分布式协同训练控制方法、系统、装置、设备及存储介质,通过计算节点存储对模型网络的当前次迭代计算中的反向传播计算得到的各层梯度数据,在反向传播计算完毕后再自对应第一层模型网络的梯度数据起依次执行对各层梯度数据的梯度数据聚合操作得到各层聚合梯度数据,在利用接收到的当前次迭代计算的各层聚合梯度数据依次更新模型网络的各层模型参数时,即随着各层模型参数的更新执行对模型网络的下一次迭代计算的前向传播计算,达到下一次迭代计算的前向传播计算和当前次迭代计算的梯度数据聚合操作同时进行的效果,缩短了相邻两次迭代计算的执行时间,进而缩短了整体训练时间,提高了分布式训练效率。

    模型部署方法、任务处理方法、装置、设备及存储介质

    公开(公告)号:CN116956756A

    公开(公告)日:2023-10-27

    申请号:CN202311220752.4

    申请日:2023-09-21

    Abstract: 本发明涉及深度学习技术领域,并公开了模型部署方法、任务处理方法、装置、设备及存储介质,通过仿真模拟,计算出每一个分组划分策略下的每个组内并行策略的延迟,基于该延迟则可选出最优设备组划分策略和多个最优组内并行策略,并按照选出的策略进行部署,并记录下模型与设备的映射关系,则可满足延迟要求。又由于模型的部署不是一个模型对应一个设备,而是一个模型并行部署于多个设备之上,且一个设备又对应部署了多个模型。因而,在处理任务时,可以实现同一个模型的任务在多个设备上流水并行处理,不同模型的任务在多个设备上并行处理。即,可以在少量设备上满足延迟要求、提升处理效率、应对突发流量,能够极大的提升集群利用率。

Patent Agency Ranking