梯度压缩方法、装置、设备、分布式集群系统及存储介质

    公开(公告)号:CN117910521B

    公开(公告)日:2024-06-14

    申请号:CN202410317335.X

    申请日:2024-03-20

    Abstract: 本发明公开了一种梯度压缩方法、装置、设备、分布式集群及存储介质,属于分布式计算领域,用于别参考模型性能优化速率以及当前的单步训练时长两个指标,对梯度压缩程度进行调节,解决了应对低速网络进行梯度压缩时无法平衡模型性能与通信开销的问题。本发明以单个训练步为粒度,在预热阶段后的任一个训练步得到梯度数据后,在模型性能优化速率不达标的情况下对梯度压缩程度进行缩小,以便提升模型性能,而在模型性能优化速率达标且当前的单步训练时长超标的情况下,便可对梯度压缩程度进行放大,以便降低通信开销,本发明可结合网络状况的影响动态的调节梯度数据的压缩程度,从而在兼顾模型性能与网络状况的基础上,尽可能的降低通信开销。

    硬件系统的可靠性分析方法、设备、程序产品及存储介质

    公开(公告)号:CN118094956A

    公开(公告)日:2024-05-28

    申请号:CN202410465675.7

    申请日:2024-04-18

    Abstract: 本发明公开了一种硬件系统的可靠性分析方法、设备、程序产品及存储介质,属于系统可靠性分析领域,用于结合故障树、马尔科夫过程模型以及仿真法对硬件系统进行可靠性分析,解决了难以兼顾分析精度与分析效率的问题。首先获取待测硬件系统的故障树,接着根据老化过程之间的依赖关系,将待测硬件系统各老化过程的可靠性模型划分得到第一模型组,由于通过分段确定的马尔科夫过程模型可确定出:第一模型组内的非核心可靠性模型所属老化过程在组内的核心可靠性模型所属老化过程的不同状态下的状态转移参数,从而实现了对统计上不独立的基本事件的分析,而且故障树分析法与仿真法的结合,可以兼顾分析精度与分析效率。

    文本生成方法及其模型梯度剪枝方法、装置、设备、介质

    公开(公告)号:CN117910536A

    公开(公告)日:2024-04-19

    申请号:CN202410309633.4

    申请日:2024-03-19

    Abstract: 本发明涉及人工智能技术领域,公开了文本生成方法及其模型梯度剪枝方法、装置、设备、介质,训练预热阶段保持文本生成模型当前的模型梯度不变;非训练预热阶段,基于滑窗尺寸信息和性能损失函数,确定出文本生成模型在每个训练步数下以损失函数变化率为表征的性能;根据设定的训练状态条件以及每个训练步数下以损失函数变化率为表征的性能和单步训练时长,依次对每个训练步数下的梯度剪枝量进行调整。每得到一个调整后的梯度剪枝量,则按照调整后的梯度剪枝量对文本生成模型进行梯度剪枝操作,直至当前训练步数达到文本生成模型的总训练步数,结束对文本生成模型的剪枝操作,保证了文本生成模型的训练任务能够在低速不稳定的网络环境中顺利完成。

    梯度压缩方法、装置、设备、分布式集群及存储介质

    公开(公告)号:CN117910521A

    公开(公告)日:2024-04-19

    申请号:CN202410317335.X

    申请日:2024-03-20

    Abstract: 本发明公开了一种梯度压缩方法、装置、设备、分布式集群及存储介质,属于分布式计算领域,用于别参考模型性能优化速率以及当前的单步训练时长两个指标,对梯度压缩程度进行调节,解决了应对低速网络进行梯度压缩时无法平衡模型性能与通信开销的问题。本发明以单个训练步为粒度,在预热阶段后的任一个训练步得到梯度数据后,在模型性能优化速率不达标的情况下对梯度压缩程度进行缩小,以便提升模型性能,而在模型性能优化速率达标且当前的单步训练时长超标的情况下,便可对梯度压缩程度进行放大,以便降低通信开销,本发明可结合网络状况的影响动态的调节梯度数据的压缩程度,从而在兼顾模型性能与网络状况的基础上,尽可能的降低通信开销。

    一种数据处理方法、装置及介质
    35.
    发明公开

    公开(公告)号:CN114138481A

    公开(公告)日:2022-03-04

    申请号:CN202111425760.3

    申请日:2021-11-26

    Abstract: 本申请公开了一种数据处理方法、装置及介质,包括:第一目标FPGA加速卡获取与自身连接的目标主机发送的计算开始命令,对待处理数据进行计算,得到中间结果数据,根据自身的配置信息将中间结果数据、下一步计算类型信息发送至下一个FPGA加速卡,下一个FPGA加速卡对中间结果数据进行计算,得到新中间结果数据,将新中间结果数据以及下一步计算类型信息发送至下一个FPGA加速卡,直到最后一个参与计算的第二目标FPGA加速卡计算完成,得到最终结果数据;通过第二目标FPGA加速卡将最终结果数据返回至目标主机,以完成针对待处理数据的分布式计算。能够降低多块FPGA加速卡进行分布式计算时的计算延迟,从而提升计算效率。

    数据通信方法、装置、电子设备及可读存储介质

    公开(公告)号:CN113849238A

    公开(公告)日:2021-12-28

    申请号:CN202111149416.6

    申请日:2021-09-29

    Abstract: 本申请公开了一种数据通信方法、装置、电子设备及可读存储介质。其中,方法包括将用户态的多个用户线程同时分别拷贝至内核态对应的缓存区中,并为各用户线程分配相应的线程标识信息。对每个用户线程,将基于当前用户线程对应的缓存区和线程标识信息所生成FPGA数据包传输至FPGA,并通知内核线程,以使内核线程对接收到的目标FPGA数据包和当前用户线程进行线程一致性校验;若校验成功,则内核线程向当前用户线程发送唤醒指令,以使当前用户线程将内核态数据拷贝至用户态缓存区,从而可有效解决高并发下多个线程同时与FPGA通信所导致的惊群现象。

    一种信息记录方法、装置、设备及可读存储介质

    公开(公告)号:CN111858116A

    公开(公告)日:2020-10-30

    申请号:CN202010568683.6

    申请日:2020-06-19

    Abstract: 本申请公开了一种信息记录方法、装置、设备及可读存储介质。本申请公开的方法包括:若服务器启动,则在基于OpenPower平台的FPGA加速卡的DDR中确定环形缓冲区;确定环形缓冲区的起始地址和结束地址,并将起始地址和结束地址配置给FPGA加速卡;在服务器运行过程中,实时记录预设调试信息至环形缓冲区,以便在服务器发生故障后,根据环形缓冲区中的数据进行故障定位。本申请在服务器运行过程中,利用FPGA加速卡的DDR记录预设调试信息,因此在宕机故障造成服务器的CPU错误时,也可以确保调试信息的记录,从而有助于进行故障定位。相应地,本申请提供的一种信息记录装置、设备及可读存储介质,也同样具有上述技术效果。

    一种数据的读写方法、产品、数据加速器以及介质

    公开(公告)号:CN119045776B

    公开(公告)日:2025-04-25

    申请号:CN202411534508.X

    申请日:2024-10-31

    Abstract: 本发明公开了一种数据的读写方法、产品、数据加速器以及介质,涉及数据处理技术领域。将直接来自于矩阵乘加速单元的非完整行顺序的数据,在缓存中按照完整行的顺序保存,需要将其矩阵乘加速单元的结果数据输出顺序通过分片的大小和行列维度位置对应进行转换处理,以适应非矩阵乘单元对应的写入顺序;避免将矩阵乘加速单元的数据写回片外存储器后再读取的高延迟操作。在非矩阵乘单元输出的数据存储顺序将其进行填充处理,使得填充后的第三数据的矩阵维度与矩阵乘加速单元的矩阵维度相同,实现为实际计算结果生成符合矩阵乘加速单元所需要的数据维度的功能,避免将非矩阵乘加速单元的数据写回片外存储器后再读取的高延迟操作。

    一种网络拥塞控制方法、系统、装置、设备及存储介质

    公开(公告)号:CN118316877B

    公开(公告)日:2024-08-20

    申请号:CN202410726090.6

    申请日:2024-06-06

    Abstract: 本发明涉及通信技术领域,具体公开了一种网络拥塞控制方法、系统、装置、设备及存储介质,通过在基于传输控制协议发送报文时若根据接收端设备的应答信息确定发送端设备满足快速重传条件,获取历史慢启动阈值对应的传输成功记录,并根据历史慢启动阈值对应的传输成功记录确定发送端设备采用历史慢启动阈值的传输稳定性以从中选出目标慢启动阈值,得到了适应通信网络情况变化的慢启动阈值,利用该目标慢启动阈值重置发送端设备的慢启动阈值,以使发送端设备根据目标慢启动阈值更新拥塞窗口值后继续执行报文发送任务,解决了慢启动阈值采用固定减半的方法无法自适应网络变化情况的问题,提高了通信效率。

    一种待更新参数选择方法、装置、计算设备及存储介质

    公开(公告)号:CN117875397B

    公开(公告)日:2024-06-04

    申请号:CN202410269821.9

    申请日:2024-03-11

    Abstract: 本发明提供一种待更新参数选择方法、装置、计算设备及存储介质,涉及计算机技术领域,方法应用于计算设备,计算设备存储有待训练的神经网络模型,包括:在对神经网络模型的模型参数执行每轮迭代训练的反向传播操作前,获取与神经网络模型中的各网络层对应的辅助网络;辅助网络包含与网络层中的各神经元对应的辅助参数,辅助参数利用与神经网络模型在每轮迭代训练中共同确定的损失值进行迭代更新;利用门控单元确定各辅助参数对应的门控值;将门控值不大于门控阈值的辅助参数对应的神经元所包含的模型参数设置为待更新参数,并清除不属于待更新参数的模型参数;门控阈值利用计算设备的存储资源量设置;可减少对计算设备存储资源的消耗。

Patent Agency Ranking