-
公开(公告)号:CN115905546B
公开(公告)日:2023-07-14
申请号:CN202310017218.7
申请日:2023-01-06
Applicant: 之江实验室
IPC: G06F16/35 , G06N3/0464 , G06N3/048 , G06N3/063 , G06N3/08
Abstract: 本发明公开了基于阻变存储器的图卷积网络文献识别装置与方法,对文献识别数据集进行训练集和测试集的构建;构建基于阻变存储器的浮点图卷积网络模型,用训练集进行预训练,得到预训练的模型参数;根据浮点图卷积网络模型,构建基于阻变存储器的训练阶段的图卷积网络量化模型;将训练集输入训练阶段的图卷积网络量化模型,进行量化感知训练,得到每层输出值的截断位宽、损失函数的权值,以及量化感知训练后的模型参数;根据训练阶段的图卷积网络量化模型,构建基于阻变存储器的推理阶段的图卷积网络量化模型;将量化感知训练后的模型参数映射到阻变存储器上,并将测试集输入到基于阻变存储器的推理阶段的图卷积网络量化模型,进行前向推理测试。
-
公开(公告)号:CN115429293B
公开(公告)日:2023-04-07
申请号:CN202211373110.3
申请日:2022-11-04
Applicant: 之江实验室
Abstract: 本发明公开一种基于脉冲神经网络的睡眠类型分类方法和装置,该方法包括:步骤一,获取开源睡眠脑电图数据集;步骤二,将数据集中脑电图信号分割成多个第一片段信号,删除不需要的第一片段信号,并归一化剩余的第一片段信号;步骤三,分割归一化后的第一片段信号,得到第二片段信号;步骤四,将每一个第二片段信号进行事件编码,获得第二片段事件信号,并分为训练集和测试集;步骤五,构建脉冲神经网络模型及其损失函数进行各项参数梯度求解;步骤六,在训练集上进行脉冲神经网络模型优化训练,利用训练好的脉冲神经网络模型对测试集进行识别,实现睡眠类型分类。本发明相比传统神经网络分类检测具有计算量更少、更节能的优点。
-
公开(公告)号:CN114816335B
公开(公告)日:2022-11-25
申请号:CN202210738210.5
申请日:2022-06-28
Applicant: 之江实验室
IPC: G06F7/575
Abstract: 本发明公开了一种忆阻器阵列符号数乘法实现方法、装置及设备,装置包括忆阻器阵列和移位计算模块,忆阻器阵列的输入端和输出端分别与移位计算模块连接,方法包括步骤S1:确定带有符号的输入值,并将其转换为二进制补码形式;步骤S2:依据忆阻器阵列单次输入的位宽,将输入值拆分,其中最高位为符号位,从最低位开始依次输入到忆阻器阵列中进行乘法计算;步骤S3:忆阻器阵列单次输出值为最高位时做移位减法操作,其余位时均做移位加法操作;步骤S4:输出忆阻器阵列的最终乘法计算结果。本发明的忆阻器阵列符号数乘法实现方式,适用于神经网络计算,改善了部分场景下输入值仅为无符号数的限制,通用性强,几乎没有额外的硬件资源消耗。
-
公开(公告)号:CN115311506A
公开(公告)日:2022-11-08
申请号:CN202211238897.2
申请日:2022-10-11
Applicant: 之江实验室
IPC: G06V10/764 , G06V10/82 , G06N3/04 , G06N3/063 , G06N3/08
Abstract: 本发明公开了基于阻变存储器的量化因子优化的图像分类方法及装置,分别构建基于阻变存储器的浮点神经网络模型及与其对应的基于阻变存储器的神经网络量化模型,通过一种新的量化因子优化损失函数结合分类损失函数,对神经网络量化模型进行训练,并且与阻变存储器的特性结合,通过迭代优化使图像分类神经网络模型学习到的量化因子尽可能的接近2的幂次方,在推理阶段,将量化后的值映射到阻变存储器阵列的电压值和电导值,并对输出电流进行移位操作,得到卷积层输出量化后的值,最终得到基于阻变存储器的神经网络量化模型的图像分类结果,由于每层的量化因子通过基于阻变存储器的神经网络模型学习得到,能够加快模型的推理速度。
-
公开(公告)号:CN115049885A
公开(公告)日:2022-09-13
申请号:CN202210981223.5
申请日:2022-08-16
Applicant: 之江实验室
IPC: G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08 , G06F5/06
Abstract: 本发明公开了一种存算一体卷积神经网络图像分类装置及方法,通过控制器对装置的其他单元、器件的控制;通过数据存储器存储神经网络分类的图像数据,以及中间特征图数据;通过存算一体单元获取的图像数据,并对图像数据进行卷积神经网络中的卷积层以及全连接层的计算,得到特征值;通过激活函数单元对存算一体单元输出的特征值进行非线性操作,得到非线性操作后的特征值;通过池化单元依次对非线性操作后的特征值进行行池化操作和列池化操作,并将最终结果值存入数据存储器;通过分类器获取最后一层神经网络计算对应的存算一体单元的输出,根据分类标签得到分类结果;从而实现数据流的优化,减少数据存取次数,减小所需缓存容量,提升计算效率。
-
公开(公告)号:CN113436664A
公开(公告)日:2021-09-24
申请号:CN202110987676.4
申请日:2021-08-26
Applicant: 之江实验室
IPC: G11C13/00
Abstract: 本发明属于非易失存储器技术领域,涉及一种阻变存储单元的电导线性对称调节方法,通过调节阻变存储单元晶体管的栅极电压来实现阻变存储单元的电导的线性对称调节,在一晶体管一阻变存储器件的阻变存储单元结构下,在晶体管源极和漏极施加电压时,通过控制晶体管的栅极电压,使得阻变存储单元的电导状态发生改变,在高阻向低阻转变过程中,当晶体管的栅极电压较大时,器件电阻处于高电导状态;当晶体管的栅极电压较小时,忆阻器处于低电导状态。本发明方法通过调节栅极电压,得到电导呈线性对称变化,在多个周期性的测试中都保持较大的窗口,多次循环操作的电导变化差异很小,耐久性较好,可以解决传统阻变存储器编程方案的电导精准调控难题。
-
公开(公告)号:CN112837720A
公开(公告)日:2021-05-25
申请号:CN202110087357.8
申请日:2021-01-22
Applicant: 之江实验室
Abstract: 本发明公开了一种高密度三态内容寻址存储器及其寻址方法,所述存储器包括:搜索线、匹配线、互补搜索线和多个存储单元,所述存储单元包括第一存储电阻和第二存储电阻,所述第一存储电阻的第一端与所述搜索线相连,所述第一存储电阻的第二端与所述匹配线相连,所述第二存储电阻的第一端与所述互补搜索线相连,所述第二存储电阻的第二端与所述匹配线相连。本发明提供的高密度三态内容寻址存储器及其寻址方法,具有存储密度大和可靠性强特点。
-
公开(公告)号:CN112750486A
公开(公告)日:2021-05-04
申请号:CN202110012792.4
申请日:2021-01-06
Applicant: 之江实验室
Abstract: 本发明涉及新型存储芯片RRAM测试技术领域,具体涉及一种阻变存储器的故障测试方法,该方法首先扫描所有的存储单元,检测出所有的故障存储单元,并标记为一级故障类型,然后依次扫描一级故障类型里的故障存储单元,标记为二级故障类型,最后输出所有存储单元故障类型一览表。本发明可以检测出阻变存储器存储单元的主要故障类型,且检测时间短,检测故障类型准确可靠,降低了阻变存储器检测故障的错判率,提高了阻变存储器的故障测试效率。
-
公开(公告)号:CN115576328B
公开(公告)日:2023-03-28
申请号:CN202211421109.3
申请日:2022-11-15
Applicant: 之江实验室
IPC: G05D1/02
Abstract: 本发明公开了基于模糊控制器的机器人导航避障方法及装置,通过采集机器人激光雷达和里程计两种传感器的信息作为模糊控制器输入,建立两套知识库和模糊推理规则,得到第一模糊控制器的输出为机器人运动的线速度和角速度,第二模糊控制器的输出为导航和避障两个任务的权重值,用于权衡机器人的导航和避障这两个任务。本发明中除了模糊控制理论外不需要其他人工智能算法的辅助,不需要预先构建地图,不需要大量的数据库和训练集,即可实现机器人在未知的、动态的复杂环境中避障导航的功能。基于人类知识和语言设计的策略,易于理解、实时性高、鲁棒性强。
-
公开(公告)号:CN115311506B
公开(公告)日:2023-03-28
申请号:CN202211238897.2
申请日:2022-10-11
Applicant: 之江实验室
IPC: G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/063 , G06N3/08
Abstract: 本发明公开了基于阻变存储器的量化因子优化的图像分类方法及装置,分别构建基于阻变存储器的浮点神经网络模型及与其对应的基于阻变存储器的神经网络量化模型,通过一种新的量化因子优化损失函数结合分类损失函数,对神经网络量化模型进行训练,并且与阻变存储器的特性结合,通过迭代优化使图像分类神经网络模型学习到的量化因子尽可能的接近2的幂次方,在推理阶段,将量化后的值映射到阻变存储器阵列的电压值和电导值,并对输出电流进行移位操作,得到卷积层输出量化后的值,最终得到基于阻变存储器的神经网络量化模型的图像分类结果,由于每层的量化因子通过基于阻变存储器的神经网络模型学习得到,能够加快模型的推理速度。
-
-
-
-
-
-
-
-
-