-
公开(公告)号:CN114816335B
公开(公告)日:2022-11-25
申请号:CN202210738210.5
申请日:2022-06-28
Applicant: 之江实验室
IPC: G06F7/575
Abstract: 本发明公开了一种忆阻器阵列符号数乘法实现方法、装置及设备,装置包括忆阻器阵列和移位计算模块,忆阻器阵列的输入端和输出端分别与移位计算模块连接,方法包括步骤S1:确定带有符号的输入值,并将其转换为二进制补码形式;步骤S2:依据忆阻器阵列单次输入的位宽,将输入值拆分,其中最高位为符号位,从最低位开始依次输入到忆阻器阵列中进行乘法计算;步骤S3:忆阻器阵列单次输出值为最高位时做移位减法操作,其余位时均做移位加法操作;步骤S4:输出忆阻器阵列的最终乘法计算结果。本发明的忆阻器阵列符号数乘法实现方式,适用于神经网络计算,改善了部分场景下输入值仅为无符号数的限制,通用性强,几乎没有额外的硬件资源消耗。
-
公开(公告)号:CN115311506A
公开(公告)日:2022-11-08
申请号:CN202211238897.2
申请日:2022-10-11
Applicant: 之江实验室
IPC: G06V10/764 , G06V10/82 , G06N3/04 , G06N3/063 , G06N3/08
Abstract: 本发明公开了基于阻变存储器的量化因子优化的图像分类方法及装置,分别构建基于阻变存储器的浮点神经网络模型及与其对应的基于阻变存储器的神经网络量化模型,通过一种新的量化因子优化损失函数结合分类损失函数,对神经网络量化模型进行训练,并且与阻变存储器的特性结合,通过迭代优化使图像分类神经网络模型学习到的量化因子尽可能的接近2的幂次方,在推理阶段,将量化后的值映射到阻变存储器阵列的电压值和电导值,并对输出电流进行移位操作,得到卷积层输出量化后的值,最终得到基于阻变存储器的神经网络量化模型的图像分类结果,由于每层的量化因子通过基于阻变存储器的神经网络模型学习得到,能够加快模型的推理速度。
-
公开(公告)号:CN115049885A
公开(公告)日:2022-09-13
申请号:CN202210981223.5
申请日:2022-08-16
Applicant: 之江实验室
IPC: G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08 , G06F5/06
Abstract: 本发明公开了一种存算一体卷积神经网络图像分类装置及方法,通过控制器对装置的其他单元、器件的控制;通过数据存储器存储神经网络分类的图像数据,以及中间特征图数据;通过存算一体单元获取的图像数据,并对图像数据进行卷积神经网络中的卷积层以及全连接层的计算,得到特征值;通过激活函数单元对存算一体单元输出的特征值进行非线性操作,得到非线性操作后的特征值;通过池化单元依次对非线性操作后的特征值进行行池化操作和列池化操作,并将最终结果值存入数据存储器;通过分类器获取最后一层神经网络计算对应的存算一体单元的输出,根据分类标签得到分类结果;从而实现数据流的优化,减少数据存取次数,减小所需缓存容量,提升计算效率。
-
公开(公告)号:CN114004343A
公开(公告)日:2022-02-01
申请号:CN202111663000.6
申请日:2021-12-31
Applicant: 之江实验室
Abstract: 本发明公开了基于忆阻器脉冲耦合神经网络的最短路径获取方法及装置,首先将加权图的边和顶点直接映射到基于忆阻器的脉冲耦合神经网络上的突触和神经元,通过记录神经元的激活时间和给定神经元的连通性,以高度并行的脉冲传播,获得从起始神经元到所有其他神经元的最短路径。本发明提出的基于忆阻器的脉冲耦合神经网络,充分利用了忆阻器物理特性的高度并行性,以较低的时间复杂度和空间复杂度实现了最短路径的获取。并且在八顶点加权图中获得100%的路径最优性,能耗低至0.33μJ。
-
公开(公告)号:CN113869504B
公开(公告)日:2022-08-05
申请号:CN202111456235.8
申请日:2021-12-02
Applicant: 之江实验室
Abstract: 本发明属于新型智能计算处理器领域,涉及一种基于忆阻器可编程神经网络加速器,通过接口与SOC总线串接,该加速器包括:指令处理模块、控制单元、执行单元模块,其中,控制单元控制连接指令处理模块和执行单元模块,指令处理模块由指令存储器、取指令单元、指令译码单元依次连接组成为一体,对指令进行存取译码后,将指令信息传达给控制单元,以及将指令上的数据给到执行单元模块,执行单元模块包括:算术逻辑单元、向量处理单元、数据存储器和忆阻器存算单元;算术逻辑单元和向量处理单元,分别对应负责寄存器计算和向量计算;数据存储器与忆阻器存算单元相连后,接入向量处理单元。本发明具有高灵活度,低带宽要求,低功耗,高并行度的优点。
-
公开(公告)号:CN114399037B
公开(公告)日:2022-07-15
申请号:CN202210293602.5
申请日:2022-03-24
Applicant: 之江实验室
Abstract: 本发明公开了基于忆阻器的卷积神经网络加速器核心的模拟方法及装置,支持除常见的正负权值映射形式外还支持补码形式的RRAM权重映射,通过将RRAM核心与外围电路抽象成各个模块并将位移寄存器与RRAM的卷积过程封装成更粗粒度的事务,在保证模型功能与精度的前提下简化芯片上外围数字电路的模型结构。本发明利用高级语言搭建RRAM核心的TLM模型,支持模拟RRAM核心的功耗、延迟、算力、面积等关键参数,比传统RTL模型仿真速度快1000倍以上,帮助芯片设计人员在芯片RTL模型完成前对芯片特性进行研究,缩短芯片的研发周期。
-
公开(公告)号:CN114463161A
公开(公告)日:2022-05-10
申请号:CN202210377006.5
申请日:2022-04-12
Applicant: 之江实验室
Abstract: 本发明涉及忆阻器应用技术领域,尤其涉及一种基于忆阻器的神经网络处理连续图像的方法和装置,该方法包括以下步骤:步骤一,对神经网络的每一层进行阵列映射,并对阵列上的计算核进行串并行排列;步骤二,将单张图像输入经过步骤一设置的神经网络,统计出神经网络的每一层的图像处理时间,得到神经网络对单张图像处理的总时长,后选取出处理时间最长的神经网络层并得到其对应的处理时长,根据总时长和单层神经网络最长处理时长,得到神经网络的最大并行图像数量;步骤三,输入小于或等于最大并行图像数量的图像至经过步骤一设置的神经网络,进行并行处理。本发明加快了忆阻器上深度神经网络处理大量或者连续图像的效率。
-
公开(公告)号:CN114399037A
公开(公告)日:2022-04-26
申请号:CN202210293602.5
申请日:2022-03-24
Applicant: 之江实验室
Abstract: 本发明公开了基于忆阻器的卷积神经网络加速器核心的模拟方法及装置,支持除常见的正负权值映射形式外还支持补码形式的RRAM权重映射,通过将RRAM核心与外围电路抽象成各个模块并将位移寄存器与RRAM的卷积过程封装成更粗粒度的事务,在保证模型功能与精度的前提下简化芯片上外围数字电路的模型结构。本发明利用高级语言搭建RRAM核心的TLM模型,支持模拟RRAM核心的功耗、延迟、算力、面积等关键参数,比传统RTL模型仿真速度快1000倍以上,帮助芯片设计人员在芯片RTL模型完成前对芯片特性进行研究,缩短芯片的研发周期。
-
公开(公告)号:CN113870921B
公开(公告)日:2022-03-18
申请号:CN202111456209.5
申请日:2021-12-02
Applicant: 之江实验室
IPC: G11C13/00
Abstract: 本发明公开了一种忆阻器阵列上符号数映射方法,该映射方法将有符号数以补码的表达形式直接映射在忆阻器阵列上,并依据不同映射数的位宽以及忆阻器精度获得映射方案。首先,需要确认当前忆阻器类型器件为二值还是多值,如果是多值器件需再确认单元精度;然后,确定所映射符号数的位宽,并将符号数转为补码形式下的二进制数;最后,得出该符号数映射方案。本发明适用于神经网络计算,该方法映射符号数所占用忆阻器资源消耗小,通用性强,数值覆盖范围和实际表达范围一样。
-
公开(公告)号:CN115204380B
公开(公告)日:2022-12-27
申请号:CN202211118488.9
申请日:2022-09-15
Applicant: 之江实验室
Abstract: 本发明公开了存算一体卷积神经网络的数据存储及阵列映射方法与装置,其中数据存储,除了初始的图像输入采用以行为单位的方式依次存储,在其余卷积神经网络计算过程中的中间特征值都采用多通道混合的方式,采用以数据在特征图中的位置为单位的方式依次存储;在阵列映射中,除了首层卷积层以不同输入通道的卷积核从上往下依次排布,在其余卷积神经网络的阵列映射过程中,结合混合数据存储的方式,将卷积神经网络中的权重混合映射,而全连接层的权重按照顺序依次映射。本发明基于存算一体技术优化了卷积神经网络计算中的数据存储形式,减小了计算过程中需要访问数据存储器的次数,并结合混合映射方法提升了卷积神经网络的计算效率。
-
-
-
-
-
-
-
-
-