-
公开(公告)号:CN119940458A
公开(公告)日:2025-05-06
申请号:CN202411827416.0
申请日:2024-12-11
Applicant: 鹏城实验室
IPC: G06N3/084 , G06N3/0464 , G06N3/063
Abstract: 本申请实施例提出的深度脉冲神经网络训练架构的能耗计算方法及相关设备,方法包括:首先,获取深度脉冲神经网络训练任务中脉冲卷积、膜电位梯度卷积和权重梯度中逻辑判别、浮点加和浮点乘的操作数量;其次,分别获取多个变量在深度脉冲神经网络训练架构的DRAM、SRAM和寄存器中进行读写操作的重用因子;接下来,基于操作数量、重用因子和各级存储器的单位读写能耗,计算得到任务读写能耗;然后,基于逻辑判别数量、浮点加和浮点乘累加操作对应的累加操作数量及其单位操作能耗,计算得到任务计算能耗;最后,累加任务读写能耗和任务计算能耗得到深度脉冲神经网络训练的任务能耗,可以精准地计算得到深度神经网络训练任务对应的任务能耗。
-
公开(公告)号:CN114595802A
公开(公告)日:2022-06-07
申请号:CN202210068359.7
申请日:2022-01-20
Applicant: 鹏城实验室
Abstract: 本发明公开了一种基于数据压缩的脉冲神经网络加速方法和装置,所述方法包括:获取脉冲神经网络的神经元输出的第一数据,并将所述第一数据进行类型转换,得到第二数据;其中,所述第一数据由两个数字组成,分别为零和非零数字;将所述第二数据进行压缩处理,得到第三数据;基于量化和反量化的方式,将所述第三数据进行卷积运算,得到目标卷积结果。本发明实施例通过将神经元输出的数据进行类型转换和对第二数据的压缩处理来提高卷积运算的速率,从而提高脉冲神经网络训练的效率。
-