面向数据流处理器的层次化存储系统

    公开(公告)号:CN114637471A

    公开(公告)日:2022-06-17

    申请号:CN202210313319.4

    申请日:2022-03-28

    Abstract: 本申请提供了面向数据流处理器的层次化存储系统,其包括在数据流处理器的每个处理单元中分别设置的寄存器堆、由一组处理单元之间共享的一级缓存和由多个一级缓存共享的二级缓存,以及与寄存器堆关联的第一预取逻辑模块和与一级缓存关联的第二预取逻辑模块,其中所述第一预取逻辑模块和第二预取逻辑模块预设的预取信息进行相应数据的预取操作。该系统可以在满足数据流处理单元所需要的访存带宽同时降低片上存储的面积。

    带宽控制单元、处理器芯片以及访存流量控制方法

    公开(公告)号:CN114610138A

    公开(公告)日:2022-06-10

    申请号:CN202210230341.2

    申请日:2022-03-10

    Abstract: 提供一种带宽控制单元,其用于包括多个数据处理单元的处理器芯片,所述多个数据处理单元通过总线对存储器进行访问,所述存储器包括优先级管理单元,所述带宽控制单元包括:第一温度判断模块,其用于接收所述多个数据处理单元的温度值,以及将所述温度值分别与相应的数据处理单元的温度阈值进行比较,并输出第一比较结果;以及优先级处理模块,其用于接收所述第一比较结果,以及根据所述第一比较结果调整所述多个数据处理单元中的一个或者多个的访存优先级;其中,所述优先级处理模块将调整后的访存优先级输出至所述存储器的优先级管理单元,以控制所述多个数据处理单元访存所述存储器的带宽。

    高通量众核数据流处理器及其任务执行方法

    公开(公告)号:CN114489809A

    公开(公告)日:2022-05-13

    申请号:CN202111673269.2

    申请日:2021-12-31

    Abstract: 本发明提出一种高通量众核数据流处理器,包括:多个处理单元,相互通信连接形成该处理器的片上网络结构;每个该处理单元包括多个子处理单元,该子处理单元包括指令子存储器和数据子存储器,多个该子处理单元以阵列结构排列,且相互通信连接形成该处理单元的多跳网络结构;配置单元,与每个该子处理单元通信连接。以及该高通量众核数据流处理器的任务执行方法。该发明相对于以往技术具有较好的可扩展性,控制逻辑简单,适用于大规模众核结构。同时支持SIMD‑MIMD‑Systolic模式可配、规模可配、区域可配等优势,灵活性更强,适用于更为通用的应用领域处理。

    基于数据流架构的稀疏神经网络的运算方法

    公开(公告)号:CN113313247A

    公开(公告)日:2021-08-27

    申请号:CN202110161624.1

    申请日:2021-02-05

    Abstract: 本发明提供了一种基于数据流架构的稀疏神经网络的运算方法,包括:依据数据流处理器的结构将稀疏神经网络的运算任务从低到高依次划分为子任务、任务和应用三个运算层级;确定所述运算层级中每个所述任务包含的所述子任务的个数、每个所述应用包含的所述任务的个数以及所述应用的个数,其中所述稀疏神经网络的输入图像数据和权重数据至少之一是稀疏矩阵;依据所述运算层级以及各个运算层级的个数,将所述稀疏神经网络的输入图像数据或权重数据划分为若干数据块;以及基于所述运算层级以及每个运算层级对应的数据块完成所述稀疏神经网络的运算任务。

    一种基于数据流架构的多精度神经网络计算装置以及方法

    公开(公告)号:CN113298245A

    公开(公告)日:2021-08-24

    申请号:CN202110631644.0

    申请日:2021-06-07

    Abstract: 本发明实施例提供了一种基于数据流架构的多精度神经网络计算装置,包括:微控制器以及与之连接的PE阵列,PE阵列的每个PE中配置有原始精度和精度低于原始精度的多种低精度的计算部件,精度越低的计算部件中配置越多并行的乘法累加器以充分利用片上网络带宽,为每个PE中每种低精度的计算部件配置充足的寄存器以避免数据溢出;所述微控制器被配置为:响应于对特定卷积神经网络的加速请求,控制PE阵列中与所述特定卷积神经网络精度匹配的原始精度或者低精度的计算部件执行相应的卷积操作中的运算并将中间计算结果存储至相应的寄存器。从而可以为不同精度的卷积神经网络进行加速,降低计算时延和能耗,提高用户体验。

    一种用于区块链的处理装置及方法

    公开(公告)号:CN110211618B

    公开(公告)日:2021-08-24

    申请号:CN201910505407.2

    申请日:2019-06-12

    Abstract: 本发明提供了一种用于区块链的处理装置及方法,该装置包括:阻变存储器,其包括用于存储待处理的随机数的多个存储单元,以及用于读出或者写入数据位的字线和位线;字线控制逻辑,用于控制阻变存储器中字线的选通;位线控制逻辑,用于控制阻变存储器中位线的选通;数据获取单元,其连接到所述阻变存储器并用于从阻变存储器中接收所选通的字线上的随机数的一个或者多个数据位的输出,获得由所述字线选通的随机数的数据位的叠加值;计算及控制单元,被配置为根据数据获取单元生成的随机数数据位的叠加值进行随机数的筛选,获得随机数有效组。本发明可以减少CPU处理的数据的范围和数据量、对访存带宽的需求、计算负载、功耗,提高区块链应用处理能力。

    一种卷积神经网络的加速方法及装置

    公开(公告)号:CN112036551A

    公开(公告)日:2020-12-04

    申请号:CN202010995617.7

    申请日:2020-09-21

    Abstract: 本发明提出一种一种卷积神经网络的加速方法,其特征在于,包括:步骤1、根据权值大小对权重矩阵进行降序排列,并记录降序排列前的权值索引;步骤2、利用降序排列后的权重矩阵与特征矩阵进行乘累加运算;步骤3、判断所述乘累加运算的结果是否小于零,如是,则结束运算,如否,则继续步骤2的运算,直至得出最后运算结果。本发明能够有效减少卷积神经网络中的无效计算,一方面可以提高神经网络的计算速度,提高加速器、芯片的性能;另一方面,无效计算的减少还能降低芯片的能耗。

    基于数据流架构的快速傅里叶变换方法、系统和存储介质

    公开(公告)号:CN110008436A

    公开(公告)日:2019-07-12

    申请号:CN201910171401.6

    申请日:2019-03-07

    Abstract: 本发明涉及一种基于数据流架构的快速傅里叶变换方法、系统和存储介质,包括:从X个源操作数中按照码位倒置顺序载入2(log2X-log2Y)个源操作数和旋转因子,Y为处理单元数,以在处理单元本地完成log2X-log2Y层蝶形运算,得到运算结果;设运算层数Q=1;将Y个处理单元标号分别对应1至Y,保存各处理单元与标号的对应关系构成序列表,序列表中有标识位,初始化所有处理单元标识位都为true;在序列表中选择标号最小且标识位为true的处理单元PEi,将其与编号为i+2Q-1的处理单元构成交换对,并将交换对中两个PE的标志位更改为false;直到所有处理单元标识位均为false,各交换对包括的处理单元间交换运算结果以完成一层蝶形运算,Q自加1;直到Q为log2X时输出运算结果。

    基于代理迭代训练大模型的集成电路设计方法及装置

    公开(公告)号:CN119312758A

    公开(公告)日:2025-01-14

    申请号:CN202411342754.5

    申请日:2024-09-25

    Abstract: 本发明提出一种基于代理迭代训练大模型的集成电路设计方法和装置,包括:获取采用自然语言描述的集成电路设计需求;将生成集成电路设计需求的指令作为问题,以及知识库作为知识参考,将问题和知识参考输入基于大语言模型的问答模型,得到指令描述;将指令描述输入基于大语言模型的代码生成模型,得到中间HDL代码并进行打分,得到语法分数,基于中间HDL代码及其语法分数构建损失函数,训练代码生成模型;通过综合工具为中间HDL代码的功耗、性能和面积进行打分,得到性能分数,基于中间HDL代码及其性能分数构建损失函数,训练问答模型;将目标电路设计需求输入训练完成的问答模型,并将得到的指令描述输入训练完成的代码生成模型,得到最终HDL代码。

Patent Agency Ranking