存算一体计算装置和神经网络训练系统

    公开(公告)号:CN119537307B

    公开(公告)日:2025-04-29

    申请号:CN202510107628.X

    申请日:2025-01-23

    Abstract: 本申请涉及一种存算一体计算装置和神经网络训练系统,其中,该存算一体计算装置包括:预载模块、混合精度输入模块、输入控制模块以及存算一体阵列模块;预载模块用于对输入数据进行预载处理,并向混合精度输入模块输出待处理数据;混合精度输入模块用于根据预设的精度需求对预载模块输出的待处理数据进行串行输出;输入控制模块用于向存算一体阵列模块输出行选通信号和列选通信号;存算一体阵列模块用于基于输入控制模块输出的行选通信号和列选通信号,对混合精度输入模块所串行输出的数据执行读、写以及计算处理。其能够为不同的神经网络算法提供更多的精度选择,提高了存算一体装置的灵活性和适用性。

    RRAM忆阻器的耐久性测试方法、装置、电子设备和介质

    公开(公告)号:CN119851744A

    公开(公告)日:2025-04-18

    申请号:CN202510314405.0

    申请日:2025-03-17

    Abstract: 本申请提供一种RRAM忆阻器的耐久性测试方法、装置、电子设备和介质。其中方法包括:获取RRAM器件的当前状态;基于RRAM器件的当前状态,确定连续多次复位操作和连续多次置位操作的先后顺序;复位操作表示对RRAM忆阻器件进行擦除;置位操作表示对RRAM忆阻器件进行编程;使用渐变增大的脉冲强度,确定RRAM器件的电阻区间;渐变增大的脉冲强度包括能够翻转RRAM当前状态的初始脉冲强度;根据RRAM器件的电阻区间内最高阻态和最低阻态,选用耐久性测试所使用的固定脉冲参数,加载连续交替的复位操作和置位操作,对RRAM器件进行耐久性测试。如此,可以避免由于过复位或过置位问题导致的耐久性测试提前失效。

    存算一体计算装置和神经网络训练系统

    公开(公告)号:CN119537307A

    公开(公告)日:2025-02-28

    申请号:CN202510107628.X

    申请日:2025-01-23

    Abstract: 本申请涉及一种存算一体计算装置和神经网络训练系统,其中,该存算一体计算装置包括:预载模块、混合精度输入模块、输入控制模块以及存算一体阵列模块;预载模块用于对输入数据进行预载处理,并向混合精度输入模块输出待处理数据;混合精度输入模块用于根据预设的精度需求对预载模块输出的待处理数据进行串行输出;输入控制模块用于向存算一体阵列模块输出行选通信号和列选通信号;存算一体阵列模块用于基于输入控制模块输出的行选通信号和列选通信号,对混合精度输入模块所串行输出的数据执行读、写以及计算处理。其能够为不同的神经网络算法提供更多的精度选择,提高了存算一体装置的灵活性和适用性。

    一种多值阻变存储器的振荡收敛编程方法及装置

    公开(公告)号:CN118760422A

    公开(公告)日:2024-10-11

    申请号:CN202411246402.X

    申请日:2024-09-06

    Abstract: 本发明提供一种多值阻变存储器的振荡收敛编程方法及装置,该方法通过获取阻变存储器目标值范围并对其进行初始化。获取阻变存储器当前值,若在目标范围内,则成功编程;若阻变存储器当前值与目标范围的差异在阈值内,则减小步进值;若阻变存储器当前值大于目标值,则对阻变存储器施加脉冲信号,使其达到最低值,并将栅极电压的当前值减去栅极电压步进值作为栅极电压;反之,则将栅极电压的当前值加上栅极电压步进值作为栅极电压;对阻变存储器施加栅极电压,进行置位操作,并重复上述过程,直到达到阻变存储器目标值范围或者超过最大编程次数或时间。本发明可快速将阻变存储器收敛到目标值,可用并行编程方式加速,降低编程过程中的功耗。

    一种基于阻变存储器的模型训练方法、装置、介质及设备

    公开(公告)号:CN117744731B

    公开(公告)日:2024-09-13

    申请号:CN202311686862.X

    申请日:2023-12-07

    Abstract: 本说明书公开了一种基于阻变存储器的模型训练方法、装置、介质及设备。通过对各初始网络权重以预设的网络权重范围进行预调整,而后根据预设的尺度参数以及各调整后网络权重中的最大值将各调整后网络权重转化为阻变存储器的电导值,通过将样本数据转化为电压值控制阻变存储器输出电流,并在阻变存储器输出电流后,先将阻变存储器中的各电导值对应的网络权重替换目标模型中的各网络权重,而后以阻变存储器输出的电流的电流值对应的预测结果以及样本数据对应的实际标签对替换了网络权重的目标模型进行训练,更合理的将各初始网络权重映射为阻变存储器中的各电导值,解决了阻变存储器中的电导值写入误差问题对模型训练的影响,提高了模型训练效率。

    基于存算一体单元的数据处理装置

    公开(公告)号:CN117519802B

    公开(公告)日:2024-04-30

    申请号:CN202410025725.X

    申请日:2024-01-08

    Abstract: 本申请提出了基于存算一体单元的数据处理装置,包括控制单元、数据存储器、预载单元、输入单元、存算一体处理单元以及输出单元。控制单元负责装置的全局及局部模块的控制;数据存储器用于初始数据以及结果数据的存储;预载单元用于输入计算数据的预载;输入单元与数据存储器、预载单元和存算一体处理单元相连,用于读、写、计算过程中的数据载入和输出;存算一体处理单元由多个存算一体单元构成,并与输出单元相连进行数据的输出。通过在内置的存算一体单元的处理装置集成了构建完整计算数据流和控制流所需要的结构单元,实现不同计算结构的矩阵计算,在卷积计算模式下优化了数据流,减少访存的消耗。

    一种芯片测试系统以及芯片测试方法

    公开(公告)号:CN115902595A

    公开(公告)日:2023-04-04

    申请号:CN202310179200.7

    申请日:2023-02-20

    Abstract: 本说明书公开了一种芯片测试系统以及芯片测试方法,在控制芯片和待测试芯片之间设有各选通开关,在各选通开关中预设有多个用于在待测试芯片中写入行数据、读取行数据、写入列数据、读取列数据的通道,控制芯片可以根据测试需求,从各选通开关中确定出各目标选通开关,并向各目标选通开关发送控制指令,以通过这些处于选通状态的选通通道完成测试操作,从而对待测试芯片的每个行线和每个列线的读取数据以及写入数据功能进行测试,进而可以降低测试成本,并且可以提高测试效率。

    基于模糊控制器的机器人导航避障方法及装置

    公开(公告)号:CN115576328A

    公开(公告)日:2023-01-06

    申请号:CN202211421109.3

    申请日:2022-11-15

    Abstract: 本发明公开了基于模糊控制器的机器人导航避障方法及装置,通过采集机器人激光雷达和里程计两种传感器的信息作为模糊控制器输入,建立两套知识库和模糊推理规则,得到第一模糊控制器的输出为机器人运动的线速度和角速度,第二模糊控制器的输出为导航和避障两个任务的权重值,用于权衡机器人的导航和避障这两个任务。本发明中除了模糊控制理论外不需要其他人工智能算法的辅助,不需要预先构建地图,不需要大量的数据库和训练集,即可实现机器人在未知的、动态的复杂环境中避障导航的功能。基于人类知识和语言设计的策略,易于理解、实时性高、鲁棒性强。

    一种基于脉冲神经网络的睡眠类型分类方法和装置

    公开(公告)号:CN115429293A

    公开(公告)日:2022-12-06

    申请号:CN202211373110.3

    申请日:2022-11-04

    Abstract: 本发明公开一种基于脉冲神经网络的睡眠类型分类方法和装置,该方法包括:步骤一,获取开源睡眠脑电图数据集;步骤二,将数据集中脑电图信号分割成多个第一片段信号,删除不需要的第一片段信号,并归一化剩余的第一片段信号;步骤三,分割归一化后的第一片段信号,得到第二片段信号;步骤四,将每一个第二片段信号进行事件编码,获得第二片段事件信号,并分为训练集和测试集;步骤五,构建脉冲神经网络模型及其损失函数进行各项参数梯度求解;步骤六,在训练集上进行脉冲神经网络模型优化训练,利用训练好的脉冲神经网络模型对测试集进行识别,实现睡眠类型分类。本发明相比传统神经网络分类检测具有计算量更少、更节能的优点。

    存算一体卷积神经网络的数据存储及阵列映射方法与装置

    公开(公告)号:CN115204380A

    公开(公告)日:2022-10-18

    申请号:CN202211118488.9

    申请日:2022-09-15

    Abstract: 本发明公开了存算一体卷积神经网络的数据存储及阵列映射方法与装置,其中数据存储,除了初始的图像输入采用以行为单位的方式依次存储,在其余卷积神经网络计算过程中的中间特征值都采用多通道混合的方式,采用以数据在特征图中的位置为单位的方式依次存储;在阵列映射中,除了首层卷积层以不同输入通道的卷积核从上往下依次排布,在其余卷积神经网络的阵列映射过程中,结合混合数据存储的方式,将卷积神经网络中的权重混合映射,而全连接层的权重按照顺序依次映射。本发明基于存算一体技术优化了卷积神经网络计算中的数据存储形式,减小了计算过程中需要访问数据存储器的次数,并结合混合映射方法提升了卷积神经网络的计算效率。

Patent Agency Ranking