-
公开(公告)号:CN108171328A
公开(公告)日:2018-06-15
申请号:CN201810175352.9
申请日:2018-03-02
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
CPC classification number: G06N3/063
Abstract: 本发明提供了一种卷积运算方法和基于该方法的神经网络处理器。该卷积运算方法包括:获取卷积域内待执行卷积运算的权重向量和神经元向量,其中所述权重向量和所述神经元向量具有相同的维度;从所述权重向量查找有效权重并从所述神经元向量查找有效神经元,匹配获得有效元素子组,其中,每一个有效元素子组包括一个有效权重以及与该有效权重对应的一个有效神经元,所述有效权重是非零权重,所述有效神经元是非零神经元;针对所述有效元素子组执行卷积运算。利用本发明的方法和神经网络处理器能够降低卷积计算量,从而提高计算效率。
-
公开(公告)号:CN107967132A
公开(公告)日:2018-04-27
申请号:CN201711202435.4
申请日:2017-11-27
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种用于神经网络处理器的加法器和乘法器。其中所述加法器,包括:至少一个加法装置,所述加法装置包括一个异或非门、第一与非门和第二与非门,所述异或非门以两个比特位Ai和Bi为输入,所述第一与非门以两个比特位Ai-1和Bi-1为输入,所述第二与非门以所述异或非门的输出和所述第一与非门的输出为输入,所述第二与非门的输出为所述加法装置的输出位Si;其中,Ai和Ai-1为加数中相邻的两个比特,Bi和Bi-1为被加数中相邻的两个比特,i大于等于0。
-
公开(公告)号:CN107844829A
公开(公告)日:2018-03-27
申请号:CN201711054212.8
申请日:2017-10-31
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
CPC classification number: G06N3/063
Abstract: 本发明提供了用于加速神经网络处理器的方法及相应神经网络处理器,其中从待处理的神经网络模型的原始数据分组中,提取非零元素并设置各分组的位置标记,每个分组的位置标记指示该分组中相应位置的元素是否为零;在计算时基于位置标记选择处于相同位置的数据和权重加载至神经网络处理器的计算单元参与运算。这样,可有效降低神经网络处理器所处理的数据规模,从而减少片上存储开销,加快了运算速度并降低了能耗,使得神经网络处理系统性能更高效。
-
公开(公告)号:CN107818367A
公开(公告)日:2018-03-20
申请号:CN201711041164.9
申请日:2017-10-30
Applicant: 中国科学院计算技术研究所
IPC: G06N3/04
Abstract: 本发明提供了一种神经网络处理系统。该处理系统包括:计算阵列,用于执行神经元和权值的乘法和累加操作;控制单元,用于控制所述计算阵列的数据传递和加载,其中,所述计算阵列包括:至少一个列处理单元,由多个乘法单元构成,并用于执行神经元和权值的乘法运算,以输出乘积结果;至少一个列累加单元,与所述列处理单元相连,并用于对所述列处理单元的多个乘积结果进行累加;至少一个列暂存单元,与所述列累加单元相连,并用于存储所述列累加单元的计算结果。利用本发明的处理系统,在计算过程中能够实现神经元循环使用,从而提高了计算效率和资源利用率。
-
公开(公告)号:CN107766292A
公开(公告)日:2018-03-06
申请号:CN201711038320.6
申请日:2017-10-30
Applicant: 中国科学院计算技术研究所
CPC classification number: G06F17/153 , G06N3/0454
Abstract: 本发明提供一种神经网络处理方法和处理系统。该处理方法包括以下步骤:基于池化参数确定相对于原卷积域的增大卷积域;将所述增大卷积域划分为多个子卷积域,其中,每个子卷积域的尺寸与原卷积域的尺寸相等;执行所述多个子卷积域的神经元与相应卷积核权值的卷积运算,以获得多个子卷积结果;对所述多个子卷积结果执行池化处理。利用本发明的处理方法能够提高数据处理的效率和资源利用率。
-
公开(公告)号:CN107729995A
公开(公告)日:2018-02-23
申请号:CN201711054139.4
申请日:2017-10-31
Applicant: 中国科学院计算技术研究所
IPC: G06N3/06
CPC classification number: G06N3/063
Abstract: 本发明提供了用于加速神经网络处理器的方法及相应神经网络处理器,其中从待处理的神经网络模型的原始数据分组和权重分组中,提取非零元素并设置各分组的位置标记,每个分组的位置标记指示该分组中相应位置的元素是否为零;在计算时基于位置标记选择处于相同位置且相应位置的元素都不为零的数据和权重加载至神经网络处理器的计算单元参与运算。这样,可有效降低神经网络处理器所处理的数据规模,从而减少片上存储开销,加快了运算速度并降低了能耗,使得神经网络处理系统性能更高效。
-
-
公开(公告)号:CN107527090A
公开(公告)日:2017-12-29
申请号:CN201710733524.5
申请日:2017-08-24
Applicant: 中国科学院计算技术研究所
CPC classification number: G06N3/063 , G06N3/0454 , G06N5/04
Abstract: 本发明提供了一种应用于稀疏神经网络的处理器。该处理器包括:存储单元,其用于存储数据和指令;控制单元,其用于获得保存在所述存储单元的指令并发出控制信号;计算单元,其用于从所述存储单元获得神经网络中的一层的节点值和对应的权重值数据以获得下一层的节点值,其中,当待计算元素中任一项等于零时,计算单元不执行该计算元素的乘法运算,其中,所述待计算元素包括节点值和权重值。利用本发明的处理器,能够提高神经网络的计算速度并节省功耗。
-
公开(公告)号:CN107391316A
公开(公告)日:2017-11-24
申请号:CN201710777052.3
申请日:2017-09-01
Applicant: 中国科学院计算技术研究所
IPC: G06F11/14
CPC classification number: G06F11/1441
Abstract: 本发明提供一种基于非易失存储的计算装置,包括:处理器、集成在处理器上的片上存储、和/或内存,以及储能装置,用于在通电时存储电能,并在掉电时提供电能以将所述处理器上尚未保存的数据存储到所述片上存储和/或所述内存;其中,所述片上存储和/或所述内存采用读写速度为纳秒数量级的非易失存储器,用于向所述处理器提供对执行运算的数据的访存。
-
公开(公告)号:CN107301455A
公开(公告)日:2017-10-27
申请号:CN201710311909.2
申请日:2017-05-05
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种混合内存立方体存储系统,包括混合立方体和设置在所述混合立方体的电路逻辑层上的计算控制器、乘加加速器及缓存。其中计算控制器响应于接收的要进行乘加计算的指令,通过所述混合立方体的内存控制器读取要进行计算的数据存入至缓存中,并指示乘加加速器进行计算;该乘加加速器用于响应于来自所述计算控制器的指令,读取缓存中的数据来并行地进行多路乘加计算并将计算结果写入至缓存。这样,在卷积神经网络计算时大量的并行计算及其涉及的频繁访存操作都可以该混合内存立方体内部完成,充分利用了混合内存立方体内部极高的内存带宽和低访问延迟,加快了计算速度,使得卷积神经网络整体的计算效率得到了提升。
-
-
-
-
-
-
-
-
-