-
公开(公告)号:CN108376283A
公开(公告)日:2018-08-07
申请号:CN201810015196.X
申请日:2018-01-08
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供了一种用于神经网络的池化装置和池化方法。该池化装置包括:池化运算单元,用于对输入的神经元进行池化运算;控制单元,用于基于所述池化运算单元的处理能力将池化范围内的神经元划分为多个批次并控制各批次的神经元依次输入至所述池化运算单元进行池化运算。本发明的池化装置和池化方法通过对池化范围内的神经元进行批次划分,能够提高神经网络的计算效率。
-
公开(公告)号:CN108345938A
公开(公告)日:2018-07-31
申请号:CN201810170612.3
申请日:2018-03-01
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
Abstract: 本发明提供一种神经网络处理器,以及采用所述神经网络处理器对神经网络的数据进行比特转换的方法。所述神经网络处理器中包括比特转换装置,该比特转换装置包括:输入接口、控制单元、数据转换单元、和输出接口;其中,所述控制单元用于产生针对所述数据转换单元的控制信号;所述输入接口用于接收原始数据;所述数据转换单元用于根据所述控制信号对所述原始数据进行比特转换,以将所述原始数据转换为采用更少的比特位数进行表达的比特转换结果;所述输出接口用于将所述比特转换结果输出所述比特转换装置。通过本发明可以减少表达数据所采用的比特位数,降低计算所需的硬件成本、和能耗,提高计算速度。
-
-
公开(公告)号:CN107203808B
公开(公告)日:2018-06-01
申请号:CN201710323924.9
申请日:2017-05-08
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
Abstract: 本发明提供一种二值卷积装置及相应的二值卷积神经网络处理器,所述二值卷积装置包括:XNOR门,其以所采用的卷积核中的元素与待卷积数据中的相应元素作为其输入,其中所述卷积核中的元素与所述待卷积数据中的相应元素均为二值形式;累加装置,其将所述XNOR门的输出作为其输入,用于对所述XNOR门的输出进行累加,以输出二值卷积的结果。根据本发明的技术方案,可以在运算过程中减少进行计算的数据的位宽,达到提高运算效率、降低存储容量及能耗的效果。
-
公开(公告)号:CN107153873B
公开(公告)日:2018-06-01
申请号:CN201710316252.9
申请日:2017-05-08
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
Abstract: 本发明提供一种二值卷积神经网络处理器,包括:待计算数据存储装置,用于存储二值形式的待卷积数据的元素以及二值形式的卷积核元素;二值卷积装置,用于对所述二值形式的卷积核元素及所述二值形式的待卷积数据中相应的元素进行二值卷积操作;数据调度装置,用于将所述卷积核元素与所述待卷积数据中相应的元素载入所述二值卷积装置;池化装置,用于对卷积所获得的结果进行池化处理;以及归一化装置,用于对经过池化的结果进行归一化操作。
-
公开(公告)号:CN107862374A
公开(公告)日:2018-03-30
申请号:CN201711033073.0
申请日:2017-10-30
Applicant: 中国科学院计算技术研究所
IPC: G06N3/04
Abstract: 本发明提供了一种神经网络处理系统。该处理系统包括:乘法器模块,所述乘法器模块包含构成流水线的多级结构,并用于执行神经网络中待计算的神经元和权值的乘法运算,其中,所述乘法器模块的每一级结构完成所述神经元和权值的乘法运算的子运算;累加器模块,所述累加器模块包含构成流水线的多级结构,并用于对所述乘法器模块的乘法运算结果进行累加运算,以获得神经网络中卷积层的输出神经元,其中,所述累加器模块的每一级结构完成累加运算的子运算;池化单元,用于对所述卷积层的输出神经元进行池化处理;控制单元,用于控制神经网络处理系统中数据的传递。利用本发明的神经网络处理系统能够提高资源利用率和数据处理的速度。
-
公开(公告)号:CN107861916A
公开(公告)日:2018-03-30
申请号:CN201711103463.0
申请日:2017-11-10
Applicant: 中国科学院计算技术研究所
IPC: G06F17/15
CPC classification number: G06F17/15
Abstract: 本发明提供一种用于在神经网络中执行非线性函数运算的方法,包括:1)根据所述非线性函数的输入值的范围,划分多个分段区间;2)针对所述多个分段区间中的每一个,将其两个端点值分别作为所述非线性函数的自变量,计算获得与所述分段区间对应的两个因变量;3)将所述计算获得的与所述分段区间对应的所述两个因变量和所述两个自变量作为与所述分段区间对应的线性函数上的两点,计算与每个分段区间对应的线性函数的斜率和截距;4)针对所述多个分段区间中的每一个,存储与其对应的斜率和截距,以用于执行所述非线性函数运算。
-
公开(公告)号:CN107832840A
公开(公告)日:2018-03-23
申请号:CN201711054158.7
申请日:2017-10-31
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种用于神经网络处理器的方法,包括:1)确定所述神经网络处理器的电路构造;2)增加所述电路构造中至少一条路径上的至少一个器件的延时;3)将测试用的数据集作为增加了延时后的所述电路构造的输入,并通过评估所述电路构造的工作状况来获得用于所述神经网络处理器的神经网络权重值。
-
公开(公告)号:CN107578095A
公开(公告)日:2018-01-12
申请号:CN201710777736.3
申请日:2017-09-01
Applicant: 中国科学院计算技术研究所
IPC: G06N3/06
Abstract: 本发明提供一种神经网络计算装置以及包含该计算装置的处理器。该计算装置包括脉动阵列处理单元和主处理器,所述主处理器用于控制神经网络中的计算元素向所述脉动阵列处理单元的装载以及在所述脉动阵列处理单元中的传递,所述脉动阵列处理单元由多个处理单元构成,每个处理单元对接收的计算元素执行相关运算和/或将接收到的计算元素传递给下一个处理单元,其中,所述计算元素包括神经元数据和对应的权重值。利用本发明的计算装置能够加快神经网络的计算速度并降低计算过程中对带宽的需求。
-
公开(公告)号:CN104156267B
公开(公告)日:2017-10-10
申请号:CN201310177172.1
申请日:2013-05-14
Applicant: 华为技术有限公司 , 中国科学院计算技术研究所
IPC: G06F9/50
CPC classification number: G06F9/5088 , G06F9/5066 , G06F15/7825
Abstract: 本发明实施例提供一种任务分配方法、任务分配装置及片上网络,该方法包括:确定待处理任务所包含的线程数量,在多核处理器构成的片上网络中确定连续的、与线程数量相等数量的多个空闲处理器核对应的片上路由器构成的连续区域。若此区域为非矩形区域,则确定由此区域扩展的矩形区域,若扩展的矩形区域内与非空闲处理器核连接的每一个片上路由器的预测流量未超过预设门限值,则将待处理任务的多个线程分配给区域中的空闲处理器核。本发明实施例提供的任务分配方法,借助已分配任务的边界路由器将非矩形区域扩展成规则的矩形区域,由于在任务分配时结合了区域形状的灵活性并采用XY路由,从而避免硬件开销大、网络吞吐量低、系统利用率低等问题。
-
-
-
-
-
-
-
-
-