一种用于针对神经网络执行非线性运算的方法和装置

    公开(公告)号:CN107861916A

    公开(公告)日:2018-03-30

    申请号:CN201711103463.0

    申请日:2017-11-10

    CPC classification number: G06F17/15

    Abstract: 本发明提供一种用于在神经网络中执行非线性函数运算的方法,包括:1)根据所述非线性函数的输入值的范围,划分多个分段区间;2)针对所述多个分段区间中的每一个,将其两个端点值分别作为所述非线性函数的自变量,计算获得与所述分段区间对应的两个因变量;3)将所述计算获得的与所述分段区间对应的所述两个因变量和所述两个自变量作为与所述分段区间对应的线性函数上的两点,计算与每个分段区间对应的线性函数的斜率和截距;4)针对所述多个分段区间中的每一个,存储与其对应的斜率和截距,以用于执行所述非线性函数运算。

    一种用于神经网络处理器的方法

    公开(公告)号:CN107832840A

    公开(公告)日:2018-03-23

    申请号:CN201711054158.7

    申请日:2017-10-31

    Abstract: 本发明提供一种用于神经网络处理器的方法,包括:1)确定所述神经网络处理器的电路构造;2)增加所述电路构造中至少一条路径上的至少一个器件的延时;3)将测试用的数据集作为增加了延时后的所述电路构造的输入,并通过评估所述电路构造的工作状况来获得用于所述神经网络处理器的神经网络权重值。

    神经网络计算装置及包含该计算装置的处理器

    公开(公告)号:CN107578095A

    公开(公告)日:2018-01-12

    申请号:CN201710777736.3

    申请日:2017-09-01

    Abstract: 本发明提供一种神经网络计算装置以及包含该计算装置的处理器。该计算装置包括脉动阵列处理单元和主处理器,所述主处理器用于控制神经网络中的计算元素向所述脉动阵列处理单元的装载以及在所述脉动阵列处理单元中的传递,所述脉动阵列处理单元由多个处理单元构成,每个处理单元对接收的计算元素执行相关运算和/或将接收到的计算元素传递给下一个处理单元,其中,所述计算元素包括神经元数据和对应的权重值。利用本发明的计算装置能够加快神经网络的计算速度并降低计算过程中对带宽的需求。

    一种二值卷积装置及相应的二值卷积神经网络处理器

    公开(公告)号:CN107203808A

    公开(公告)日:2017-09-26

    申请号:CN201710323924.9

    申请日:2017-05-08

    CPC classification number: G06N3/063

    Abstract: 本发明提供一种二值卷积装置及相应的二值卷积神经网络处理器,所述二值卷积装置包括:XNOR门,其以所采用的卷积核中的元素与待卷积数据中的相应元素作为其输入,其中所述卷积核中的元素与所述待卷积数据中的相应元素均为二值形式;累加装置,其将所述XNOR门的输出作为其输入,用于对所述XNOR门的输出进行累加,以输出二值卷积的结果。根据本发明的技术方案,可以在运算过程中减少进行计算的数据的位宽,达到提高运算效率、降低存储容量及能耗的效果。

    一种二值卷积神经网络处理器及其使用方法

    公开(公告)号:CN107153873A

    公开(公告)日:2017-09-12

    申请号:CN201710316252.9

    申请日:2017-05-08

    CPC classification number: G06N3/063

    Abstract: 本发明提供一种二值卷积神经网络处理器,包括:待计算数据存储装置,用于存储二值形式的待卷积数据的元素以及二值形式的卷积核元素;二值卷积装置,用于对所述二值形式的卷积核元素及所述二值形式的待卷积数据中相应的元素进行二值卷积操作;数据调度装置,用于将所述卷积核元素与所述待卷积数据中相应的元素载入所述二值卷积装置;池化装置,用于对卷积所获得的结果进行池化处理;以及归一化装置,用于对经过池化的结果进行归一化操作。

    基于自旋转移力矩磁存储器的神经网络处理方法及系统

    公开(公告)号:CN107103358A

    公开(公告)日:2017-08-29

    申请号:CN201710182534.4

    申请日:2017-03-24

    CPC classification number: G06N3/063

    Abstract: 本发明涉及一种基于自旋转移力矩磁存储器的神经网络处理方法和系统,其中包括以下步骤:步骤S1,从存储单元读取需要执行的操作指令,并根据该操作指令将待计算的输入数据写入该存储单元,并生成控制信号;步骤S2,从该存储单元中获取该输入数据,结合该控制信号执行神经网络计算中的计算操作,产生中间计算数据和最终计算数据,并存入该存储单元;其中该存储单元存储介质为多层自旋转移力矩磁存储器。本发明针可在保证神经网络计算精度同时,降低片上资源开销及能量损耗。

    一种基于时间维和空间维数据流压缩的处理器、设计方法

    公开(公告)号:CN106650924A

    公开(公告)日:2017-05-10

    申请号:CN201610970218.9

    申请日:2016-10-27

    Abstract: 本发明提出一种基于时间维和空间维数据流压缩的处理器、设计方法、芯片,该处理器包括至少一个存储单元,用于存储操作指令与参与计算的数据;至少一个存储单元控制器,用于对所述存储单元进行控制;至少一个计算单元,用于执行神经网络的计算操作;控制单元,与所述存储单元控制器与所述计算单元相连,用于经由所述存储单元控制器获得所述存储单元存储的指令,并且解析所述指令以控制所述计算单元;计算单元阵列,所述计算单元阵列由m*n个所述计算单元组成,每个所述计算单元完成数据与神经网络权重的卷积运算;至少一个权重检索单元,用于对权重进行检索,其中每个所述权重检索单元与所述计算单元相连,保证具有压缩格式的权重在时间维和空间维数据流压缩下可与对应数据正确计算。

    一种时分复用的通用神经网络处理器

    公开(公告)号:CN105184366A

    公开(公告)日:2015-12-23

    申请号:CN201510587534.3

    申请日:2015-09-15

    Inventor: 韩银和 王颖

    Abstract: 本发明提供一种时分复用的通用神经网络处理器,包括:至少一个存储单元(100),用于存储指令和数据;至少一个存储单元控制器(101),其中每个存储单元控制器(101)与至少一个存储单元(100)中的一个相对应并对相应的存储单元(100)进行访问;至少一个算术逻辑单元(103),用于执行神经网络计算;以及控制单元(102),与至少一个存储单元控制器(101)和至少一个算术逻辑单元(103)相连以经由至少一个存储单元控制器(101)获得至少一个存储单元(100)存储的指令,并且解析该指令以控制至少一个算术逻辑单元(103)执行计算。本发明提供的神经网络处理器通用性较强,适用于计算大规模神经网络。

    一种用于设计芯粒系统的基板布局的方法

    公开(公告)号:CN119849422A

    公开(公告)日:2025-04-18

    申请号:CN202411879483.7

    申请日:2024-12-19

    Abstract: 本发明提供了一种用于设计芯粒系统的基板布局的方法,包括:获取待布局的各个芯粒的尺寸、基板可布局区域的尺寸、每个芯粒上的各个引脚和基板上的各个端口构成的接口集合、接口集合中各个接口的连接关系以及各个引脚在芯粒上的位置,用于初始化基板布局并以最小化布线的总线长为优化目标进行布局调整,得到第一布局结果;以最小化布局密度和接口间布线的总线长的加权和为优化目标,对第一布局结果进行全局布局优化,得到第二布局结果;对第二布局结果进行调整,使布局符合芯粒间的布局合理性约束,得到第三布局结果,其中,第一至第三布局结果中的每个布局结果包括设于基板的可布局区域内的各个芯粒的布设位置以及各个端口的布设位置。

Patent Agency Ranking