一种基于深度强化学习的2.5D总体布线方法和系统

    公开(公告)号:CN116384321B

    公开(公告)日:2023-11-07

    申请号:CN202310384336.1

    申请日:2023-04-11

    Abstract: 一种基于深度强化学习的2.5D总体布线方法,包含:步骤1:压缩,将3D总体布线问题压缩为2D总体布线问题;步骤2:数据预处理,包括将多引脚线网按半周长模型升序排序,然后基于直角Steiner最小树算法做拆解,线网拆解的子网再排序。步骤3:基于深度强化学习针对步骤2获得的两引脚对数据点对点布线,获得2D的总体布线方案,若布线方案有溢出,输出拥塞信息;否则执行步骤4。步骤4:通过直角结构层分配技术基于2D的总体布线方案获得3D的总体布线方案。本发明还包括一种基于深度强化学习的2.5D总体布线系统。本发明将多层总体布线问题压缩后基于深度强化学习进行求解,再利用层分配技术获得3D总体布线方案,有效降低算力成本并提高总体布线性能。

    一种面向分布式集群的任务执行方法、装置、介质及设备

    公开(公告)号:CN116382599B

    公开(公告)日:2023-08-29

    申请号:CN202310669715.5

    申请日:2023-06-07

    Abstract: 本说明书公开了一种面向分布式集群的任务执行方法、装置、介质及设备。所述面向分布式集群的任务执行方法包括:获取样本数据,根据磁盘带宽和本地延迟,以及网络带宽和网络延迟,对样本数据的数量进行划分,将第一样本数量的样本数据存储在各计算节点的本地磁盘,将第二样本数量的样本数据存储在存储节点,针对每个计算节点,将该计算节点的本地磁盘中指定数量的样本数据与其他计算节点的本地磁盘中的样本数据进行交换,得到更新后样本数据,以及,从所述存储节点中读取远端样本数据,根据更新后本地样本数据和远端样本数据,在该计算节点上执行当前训练周期针对目标模型的训练任务。

    面向DFS的全局聚合命名空间下跨计算节点的持久性缓存方法和装置

    公开(公告)号:CN116436962A

    公开(公告)日:2023-07-14

    申请号:CN202310376290.9

    申请日:2023-03-31

    Abstract: 面向DFS的全局聚合命名空间下跨计算节点的持久性缓存方法,包括:所有计算节点能按需访问存储在宿主计算节点、远端计算节点或数据存储服务器的任意文件;计算节点根据任务需求和元数据服务器给出的文件布局信息,通过策略引擎预设的缓存预取策略,反向使用条带化技术,根据缓存类型需求,将相关文件从数据存储服务器端复制或迁移到相应的多个计算节点本地持久性缓存设备;当缓存在多个计算节点的数据满足预设条件时,通过策略引擎预设的缓存替换或驱逐策略,将对相关计算节点端数据进行替换或驱逐到数据存储服务器端;根据待操作的相关文件是否已经缓存到对应计算节点本地持久性存储器中的情形,协同完成相关操作。

    基于参数计算和通信调度的分布式训练加速方法和系统

    公开(公告)号:CN116258197A

    公开(公告)日:2023-06-13

    申请号:CN202310545694.6

    申请日:2023-05-16

    Abstract: 基于参数计算和通信调度的分布式训练加速方法,包括:根据反向传播算法各层梯度之间不存在依赖关系的特点,通过调整梯度计算顺序,优先计算模型靠前层的梯度,从而提早梯度的传输时间,使得下轮该层的前向传播过程能够更早开始;对于梯度传输过程,通过动态枚举梯度拆分或融合阈值,并结合实时运行情况来选择性能最优的方案。还包括一种基于参数计算和通信调度的分布式训练加速系统。本发明增加了计算和通信之间的覆盖度,提升了训练性能,且实现上简单灵活,能够快速适配不同的模型及训练环境。

    一种模型训练系统、模型训练任务执行方法、装置及介质

    公开(公告)号:CN119918624A

    公开(公告)日:2025-05-02

    申请号:CN202510404732.5

    申请日:2025-04-02

    Abstract: 本申请公开了一种模型训练系统、模型训练任务执行方法、装置及介质,模型训练系统中的管理集群可以获取训练集群执行模型训练任务时的实时状态数据,通过该实时状态数据,预测未来设定时间段内训练集群在执行模型训练任务时的状态,管理集群确定与训练集群中包含的各设备对应的各模拟器,并通过这些模拟器,初始化与训练集群对应的虚拟训练集群。管理集群根据预测状态,生成针对虚拟训练集群的若干执行策略,并按照这些执行策略中的至少部分执行策略,通过虚拟训练集群仿真执行该模型训练任务,得到至少部分执行策略对应的性能指标,根据得到的性能指标,确定目标策略,以按照目标策略,执行该模型训练任务,从而有效地提高整个训练集群的效率。

    一种模型数据的管理方法、装置、存储介质及电子设备

    公开(公告)号:CN118377436B

    公开(公告)日:2024-09-13

    申请号:CN202410821445.X

    申请日:2024-06-24

    Abstract: 本说明书公开了一种模型数据的管理方法、装置、存储介质及电子设备。所述模型数据的管理方法包括:获取待存储的模型数据,并按照预设的数据页存储空间,将模型数据划分为若干个第一数据页;基于当前时刻生成的密钥,对每个第一数据页进行加密,得到各加密数据页,并根据各加密数据页生成的散列值对密钥进行加密,得到密钥数据页;构建包含各加密数据页和密钥数据页的数据条,并进行冗余编码,得到至少两个冗余数据页;将数据条中的各数据页和各冗余数据页写入存储设备,并对存储设备中存储的数据进行读取、恢复、更新、删除等数据管理。本方案有效避免了数据泄露以及损坏的风险,提高了数据的安全性。

    基于对比学习和结构化信息增强多模态特征融合的方法

    公开(公告)号:CN118627020A

    公开(公告)日:2024-09-10

    申请号:CN202411110491.5

    申请日:2024-08-14

    Abstract: 本发明公开了一种基于对比学习和结构化信息增强多模态特征融合的方法,基于对比学习的多模态网络,通过利用结构化信息构造的正负样本数据,充分挖掘模态特征之间的对应关系,基于对应关系,注入结构化信息增强模态特征的融合;本发明通过对原始数据集中成对的图片、文本对中的文本数据进行结构化处理,获取文本数据中的对象、对象关系、对象属性等信息构造文本语义负样本和结构知识特征,结构知识特征注入到文本特征中后,在对比学习模块中与文本正样本和图片数据一起进行特征对齐,基于对齐特征送入特征融合模块进行特征融合。本发明充分利用文本模态的结构信息进行特征对齐以及利用融合特征进行联合优化,极大地提升了模型的多模态理解能力。

    一种计算集群温度告警方法、装置、存储介质及电子设备

    公开(公告)号:CN118394607A

    公开(公告)日:2024-07-26

    申请号:CN202410849946.9

    申请日:2024-06-27

    Abstract: 本说明书公开了一种计算集群温度告警方法、装置、存储介质及电子设备,包括:获取各服务器的核心芯片的硬件温度,将各硬件温度输入各服务器对应的预先训练的服务器告警模型,确定各服务器分别对应的第一状态。确定通过各传感器采集到的环境温度,并将各第一状态和各环境温度输入预先训练的集群告警模型,确定计算集群对应的告警状态,并根据告警状态,对计算集群进行温度告警。通过具有可解释性的多规则的服务器告警模型,自动化判断服务器的状态,以及通过具有可解释性的多规则的集群告警模型,自动化判断计算集群的告警状态,从而自动化对计算集群的温度进行监测,以避免计算集群的温度出现异常,以防硬件受损或系统崩溃。

    一种基于数据质量的混合精度模型训练方法及装置

    公开(公告)号:CN117952182B

    公开(公告)日:2024-06-14

    申请号:CN202410345301.1

    申请日:2024-03-25

    Abstract: 本说明书公开了一种基于数据质量的混合精度模型训练方法及装置。所述任务执行方法包括:服务器首先接收训练指令,并执行训练指令,以获取目标模型,将预设的样本数据输入到预设的精度调整模型中,得到针对目标模型中包含的每个网络层对应关联数据的调整后精度。并根据调整后精度,对目标模型进行精度调整,得到调整后目标模型,并将样本数据输入调整后目标模型中,得到针对样本数据的预测结果,以最小化预测结果与样本数据对应的实际结果之间的偏差,以及最小化调整后目标模型处理样本数据所消耗的时间为优化目标,对目标模型以及精度调整模型进行训练。

Patent Agency Ranking