一种生成式人工智能的因果思维链生成方法、装置及设备

    公开(公告)号:CN116862000B

    公开(公告)日:2024-01-23

    申请号:CN202311118754.2

    申请日:2023-09-01

    Abstract: 本发明公开了一种生成式人工智能的因果思维链生成方法、装置及设备,涉及生成式人工智能技术领域,以解决多模态输入的因果思维链难以生成的问题,该方法包括:根据获取的待预测图像和问题文本,利用预训练语言模型编码器,得到图文编码特征;对图文编码特征和初始化因果链向量进行因果链编码,得到因果链筛选特征;根据图文编码特征和因果链筛选特征,利用预训练语言模型解码器,获取因果链节点预测文本;本发明通过初始化因果链向量的设置,实现因果思维链的结构化构建,利用初始化因果链向量中因果思维链的因果节点和边对应的向量(56)对比文件Rengang Li et.al.AI-VQA:VisualQuestion Answering based on AgentInteraction with Interpretability.《Proceedings of the 30th ACMInternational Conference on Multimedia(MM ' 22》.2022,第5274-5282页.张飞飞 等.跨模态视觉问答与推理研究进展《.数据采集与处理》.2023,第1-20页.Sheng Zhang et.al.Multimodal feature-wise co-attention method for visualquestion answering《.Information Fusion》.2021,第73卷第1-10页.罗会兰;岳亮亮.跨层多模型特征融合与因果卷积解码的图像描述.中国图象图形学报.2020,(08),第96-109页.

    异构计算系统、能耗确定方法、装置、电子设备及介质

    公开(公告)号:CN117349029A

    公开(公告)日:2024-01-05

    申请号:CN202311640960.X

    申请日:2023-12-04

    Abstract: 本发明公开了一种异构计算系统、能耗确定方法、装置、电子设备及介质,应用于异构计算领域。其中,系统包括主控制器、至少一个异构计算单元及能耗计算器。主控制器和各异构计算单元通过目标总线相连,并通过目标总线进行通信;能耗计算器在检测到主控制器将待处理任务分配至异构计算单元,根据待处理任务执行过程中的通信操作和计算操作,得到任务执行时序信息;根据任务执行时序信息,分别确定待处理任务过程执行过程中的动态能量消耗、各异构计算单元的静态功耗和通信功耗,从而得到异构计算系统的总能耗。本发明可以解决相关技术无法精准计算异构计算系统的模型计算任务的能耗的问题,可以有效提高异构计算系统的能耗确定精度。

    基于异构计算系统的模型训练耗时预测方法、设备及系统

    公开(公告)号:CN116720544B

    公开(公告)日:2023-11-07

    申请号:CN202310974618.7

    申请日:2023-08-04

    Abstract: 本发明提供基于异构计算系统的模型训练耗时预测方法、设备及系统,涉及神经网络领域,可根据异构计算系统中包含的各计算设备类型,设置对应的多个简化的子计算系统;随后,可将目标模型及训练数据下发至各子计算系统,并可控制各子计算系统利用该训练数据对目标模型共同进行多轮迭代训练,以对各子计算系统中的各计算设备对应的耗时信息及数据传输量进行记录;进而,本发明可将实际采集到的耗时信息、数据传输量与异构计算系统中的各计算设备间的通信带宽一同输入预设数学模型进行耗时预测,得到异构计算系统训练该目标模型的预测耗时,从而能够解决相关技术无法准确预测异构计算系统训练模型所需耗时的缺陷。

    分布式协同训练控制方法、系统、装置、设备及存储介质

    公开(公告)号:CN116644803B

    公开(公告)日:2023-11-03

    申请号:CN202310928131.5

    申请日:2023-07-27

    Abstract: 本发明涉及计算机领域,具体公开了一种分布式协同训练控制方法、系统、装置、设备及存储介质,通过计算节点存储对模型网络的当前次迭代计算中的反向传播计算得到的各层梯度数据,在反向传播计算完毕后再自对应第一层模型网络的梯度数据起依次执行对各层梯度数据的梯度数据聚合操作得到各层聚合梯度数据,在利用接收到的当前次迭代计算的各层聚合梯度数据依次更新模型网络的各层模型参数时,即随着各层模型参数的更新执行对模型网络的下一次迭代计算的前向传播计算,达到下一次迭代计算的前向传播计算和当前次迭代计算的梯度数据聚合操作同时进行的效果,缩短了相邻两次迭代计算的执行时间,进而缩短了整体训练时间,提高了分布式训练效率。

    模型部署方法、任务处理方法、装置、设备及存储介质

    公开(公告)号:CN116956756A

    公开(公告)日:2023-10-27

    申请号:CN202311220752.4

    申请日:2023-09-21

    Abstract: 本发明涉及深度学习技术领域,并公开了模型部署方法、任务处理方法、装置、设备及存储介质,通过仿真模拟,计算出每一个分组划分策略下的每个组内并行策略的延迟,基于该延迟则可选出最优设备组划分策略和多个最优组内并行策略,并按照选出的策略进行部署,并记录下模型与设备的映射关系,则可满足延迟要求。又由于模型的部署不是一个模型对应一个设备,而是一个模型并行部署于多个设备之上,且一个设备又对应部署了多个模型。因而,在处理任务时,可以实现同一个模型的任务在多个设备上流水并行处理,不同模型的任务在多个设备上并行处理。即,可以在少量设备上满足延迟要求、提升处理效率、应对突发流量,能够极大的提升集群利用率。

    一种参数梯度同步方法、装置、设备及存储介质

    公开(公告)号:CN115936095B

    公开(公告)日:2023-05-23

    申请号:CN202310135785.2

    申请日:2023-02-20

    Abstract: 本申请涉及分布式模型训练技术领域,公开了一种参数梯度同步方法、装置、设备及存储介质,包括:获取基于分布式训练框架对待训练模型进行线上训练时执行控制逻辑得到的当前执行周期的响应列表;基于参数梯度分组列表对当前执行周期的响应列表中的张量数据进行均衡划分,得到当前执行周期的待融合组列表和暂不融合列表;对当前执行周期的待融合组列表中的各组张量数据进行张量融合及规约处理;将当前执行周期的暂不融合列表中的张量数据与下一个执行周期的响应列表中的张量数据进行合并得到下一个执行周期的新响应列表,以基于新响应列表对下一个执行周期进行张量融合及规约处理。能够提高模型训练过程中的网络带宽利用率及梯度数据同步性能。

    一种梯度数据同步方法及装置

    公开(公告)号:CN116090551A

    公开(公告)日:2023-05-09

    申请号:CN202310202801.5

    申请日:2023-03-06

    Abstract: 本申请公开了一种梯度数据同步方法及装置,涉及深度学习技术领域,包括:比较训练平台的第一个维度上的带宽与第二个维度上的带宽的大小;若带宽比较结果满足预设条件,则比较所述第一个维度上的负载与所述第二个维度上的负载的大小;根据负载比较结果,确定待聚合数据的调度顺序;根据所述调度顺序对所述待聚合数据块执行分层Allreduce操作,得到梯度数据同步结果。该方法能够提高分层Allreduce的整体宽带利用率,提高梯度数据的同步效率。

    一种知识抽取方法、系统、设备及存储介质

    公开(公告)号:CN114840632A

    公开(公告)日:2022-08-02

    申请号:CN202210609563.5

    申请日:2022-05-31

    Abstract: 本申请公开了一种知识抽取方法、系统、设备及存储介质,应用于数据处理技术领域,包括:确定文本语料库并进行标注,构建索引得到标注语料库;设置用于表征关系信息的种子数据并检索出相应句子确定出句子的检索词距离,检索词的语法解析树距离,以及动词词组的语法解析树距离;并基于确定出的句子各项距离,按照权重规则确定出句子的各动词词组各自的加权值;通过汇总得出加权值之和最高的K个目标动词词组;从标注语料库中检索出包括目标动词词组的各句子,并按预设规则进行校验;将通过校验之后的各个句子,汇总为对应于种子数据的知识抽取内容。应用本申请的方案,可以有效进行知识抽取,且通用性高、召回率高,可得到高质量的知识抽取内容。

Patent Agency Ranking