硬件筛选器、图神经网络加速器及其片外访存筛选方法

    公开(公告)号:CN119988246A

    公开(公告)日:2025-05-13

    申请号:CN202510069404.4

    申请日:2025-01-16

    Abstract: 本发明提出一种硬件筛选器、图神经网络加速器及其片外访存筛选方法,该方法包含:接收来自图神经网络加速器内部的稀疏访存请求,并按照DRAM访问的最小单位burst对该稀疏访存请求分组为若干burst请求;对输入的所述若干burst请求执行至少一轮筛选,识别每一轮中待保留的所述burst请求与待筛除的所述burst请求;由内存控制器接收所述最终一轮的待保留的所述burst请求返回正确访存结果;接收所有轮的待筛除的所述burst请求生成虚假零值结果;获取该正确访存结果以及该虚假零值结果生成稀疏访存结果反馈至图神经网络加速器。该方法在不影响模型精度的前提下,降低了访存量,实现访存的局部性改善和系统的性能提升。

    一种用于分布式训练计算阶段的自动优化方法

    公开(公告)号:CN114911621A

    公开(公告)日:2022-08-16

    申请号:CN202210553734.7

    申请日:2022-05-20

    Abstract: 本发明提供一种用于分布式训练计算阶段的自动优化方法,所述方法包括在分布式训练的每个回合执行如下步骤:S1、以预设的最小单位负载为粒度,计算当前回合中参与分布式训练的所有节点的计算性能;S2、以计算性能最差的节点计算其对应的最大允许负载数的完成时间为限制时间,分别计算每个节点在限制时间内能够完成计算的最大负载数,以所有节点在限制时间内对应的能够完成计算的最大负载数组成负载分配策略;S3、以步骤S2中负载分配策略,分配下一回合每个计算节点的负载。其中,节点的计算性能是该节点完成预设最小单位负载计算的时间。

    一种用于异构图神经网络的推理加速器及加速推理方法

    公开(公告)号:CN118036688A

    公开(公告)日:2024-05-14

    申请号:CN202410248479.4

    申请日:2024-03-05

    Abstract: 本发明提供一种用于异构图神经网络的推理加速器,示意性地在该加速器中增加了图解耦器和图重组器来对异构图进行结解耦和重组的方式来进行子图划分,并将其发送至下游处理部件进行处理以实现对异构图神经网络的推理。采用本发明上述实施例通过在加速器中增加图解耦器和图重组器将异构图对应的语义图划分为局部性较强的多个子图,从而缓解了加速器在处理过程中产生的缓存抖动,同时对语义图对应的多个子图的处理等价为对原语义图的处理,在保证了处理正确性的同时也提升了加速器的执行性能。

    一种用于探索CPU微架构的设计空间的方法和装置

    公开(公告)号:CN117933073A

    公开(公告)日:2024-04-26

    申请号:CN202410057102.0

    申请日:2024-01-15

    Abstract: 本发明提供了一种用于探索CPU微架构的设计空间的方法和装置,该方法包括:获取所有设计点和负载;利用运行负载的模拟器对部分设计点进行模拟输出对应的性能指标,并构建训练集训练性能预测模型;利用经训练的性能预测模型预测剩余设计点的性能指标,并执行以下操作:计算设计点的超体积值并确定候选设计点,若有候选设计点,将该候选设计点输入模拟器;若没有候选设计点,利用预设选择算法选择一个设计点输入模拟器;判断训练集中设计点的数量与所有设计点的数量的比值是否超过预设阈值,若否,对输入的设计点进行模拟并输出性能指标,将其加入训练集对性能预测模型进行迭代训练;若是,根据帕累托等级算法计算并输出CPU微架构的帕累托最优解集。

    一种基于异构图神经网络的异构图数据加速处理方法

    公开(公告)号:CN118536564A

    公开(公告)日:2024-08-23

    申请号:CN202410652421.6

    申请日:2024-05-24

    Abstract: 本发明提供了一种基于异构图神经网络的异构图数据加速处理方法,所述方法执行特征映射计算步骤、以及语义融合计算步骤以完成异构图数据的处理,其中,在邻居聚合计算步骤中,基于映射后的子图中目标节点和各个源节点的特征向量对该子图进行剪枝计算以筛选出该子图中对目标节点符合预设重要性要求的多个源节点,并基于映射后的目标节点和筛选出的各个源节点的特征向量执行邻居聚合计算以得到子图中目标节点对应的结构特征向量。本发明的方案能够在保证异构图神经网络准确地捕捉图数据中的重要信息的同时减小异构图神经网络处理异构图数据过程中的计算复杂度和片外访存带宽的需求,从而提高异构图神经网络处理异构图数据时的执行效率。

    一种流图程序生成方法和采用该方法的粗粒度数据流装置

    公开(公告)号:CN118152090A

    公开(公告)日:2024-06-07

    申请号:CN202410156325.2

    申请日:2024-02-04

    Abstract: 本发明提供了一种应用于处理器的流图程序生成方法,其中,流图程序为指示粗粒度数据流架构下计算任务的数据流图,所述粗粒度数据流架构包括执行阵列,所述执行阵列包括多个执行单元,所述方法包括对算子任务执行如下步骤:S1、获取粗粒度数据流架构的参数,所述参数至少包括执行单元个数、可同时支持的并行任务个数;S2、基于算子任务并行计算特征以及所述步骤S1中获取的架构参数,将算子任务划分为一个或多个分任务,其中,分任务个数应小于或等于所述粗粒度数据流架构可同时支持的并行任务个数;S3、将每个分任务进一步划分成多个子任务,每个子任务执行不同的一个或多个功能;S4、按照预设的规则对每个子任务进行流图程序编码。

    一种分配语义图至多个硬件处理单元处理的方法

    公开(公告)号:CN117973432A

    公开(公告)日:2024-05-03

    申请号:CN202311562519.4

    申请日:2023-11-22

    Abstract: 本发明提供了一种分配语义图至多个硬件处理单元处理的方法,包括步骤:A1、获取多个语义图,确定多个语义图中每两个语义图之间的相似度;A2、构建超图,将步骤A1计算的相似度作为对应的两个顶点间边的权值;A3、根据删除边的权值之和局部或者全局最小化的方式,将超图划分为M个超图子图;A4、为每个超图子图增加两个虚拟点作为起点和终点,并在起点与每个顶点间以及终点与每个顶点间分别增加相同权值的边,得到经调整的超图子图;A5、针对每个经调整的超图子图,在经过每个顶点且每个顶点仅经过一次的条件下,确定对应超图子图中各语义图的处理顺序信息;A6、将每个超图子图所含所有顶点对应的各语义图及对应的处理顺序信息分配给硬件处理单元。

    一种基于图神经网络加速器的异构图神经网络的推理方法

    公开(公告)号:CN117709463A

    公开(公告)日:2024-03-15

    申请号:CN202311690313.X

    申请日:2023-12-11

    Abstract: 本发明提供了一种基于图神经网络加速器的异构图神经网络的推理方法,所述图神经网络加速器中存储有异构图神经网络的权重参数以及异构图数据经语义图构建处理后得到的多个语义图,所述方法包括:将每个语义图分别与所述异构图神经网络的权重参数进行计算,并使不同语义图之间的计算并行执行,其中:将每个语义图分别与所述异构图神经网络的权重参数进行特征映射阶段、邻居聚合阶段、本地语义融合阶段或全局语义融合阶段的计算,并使每个语义图的特征映射阶段、邻居聚合阶段、本地语义融合阶段或全局语义融合阶段的计算与其他语义图的特征映射阶段、邻居聚合阶段、本地语义融合阶段或全局语义融合阶段的计算并行执行。

    一种面向图神经网络应用的任务调度执行系统及方法

    公开(公告)号:CN111694643B

    公开(公告)日:2023-04-11

    申请号:CN202010395810.7

    申请日:2020-05-12

    Abstract: 本发明提出一种面向图神经网络应用的任务调度执行系统及方法,包括:待发射图运算符缓存模块读取待处理图运算符处理请求,根据待处理图运算符处理请求的图运算符标签,从缓存中获取所需输入数据;发射单元将待处理图运算符处理请求和输入数据发送给基于静态数据流的统一结构处理单元;统一结构处理单元根据图运算符标签的图运算符码将输入数据映射到相应的二叉运算树的输入上和图运算符执行帧,并完成本轮运算,得到中间结果;标签生成器依据前一轮运算标签信息,生成新的图运算符标签;统一结构处理单元将中间结果以及新的图运算符标签返回给待发射图运算符缓存模块;循环执行直至图运算符标签中剩余重复次数数值为1,将当前中间结果写回缓存。

Patent Agency Ranking