-
公开(公告)号:CN110390385B
公开(公告)日:2021-09-28
申请号:CN201910572582.3
申请日:2019-06-28
Applicant: 东南大学
Abstract: 本发明公开了一种基于BNRP的可配置并行通用卷积神经网络加速器,属于计算、推算、计数的技术领域。加速器包含:模式配置器、卷积计算器、BNRP计算器、数据通信单元、数据压缩编码/解码器。卷积计算器包含T个大小为R*C的脉动卷积阵列,每个脉动卷积阵列配置相应的输入、输出特征图缓存区、配置信息数据缓存区。BNRP计算器可执行两种计算模式,包含:R*T个数据输入和输出接口、R*T个池化器、归一化计算模块和非线性激活计算模块,各功能模块按流水线方式并行执行。本发明能够根据各种网络结构的特点,动态配置并行加速计算模块执行模式.且通用性好,对网络结构层复杂且规模相对较大的卷积神经网络,可极大地降低计算复杂度,功耗低、吞吐量高。
-
公开(公告)号:CN110390385A
公开(公告)日:2019-10-29
申请号:CN201910572582.3
申请日:2019-06-28
Applicant: 东南大学
Abstract: 本发明公开了一种基于BNRP的可配置并行通用卷积神经网络加速器,属于计算、推算、计数的技术领域。加速器包含:模式配置器、卷积计算器、BNRP计算器、数据通信单元、数据压缩编码/解码器。卷积计算器包含T个大小为R*C的脉动卷积阵列,每个脉动卷积阵列配置相应的输入、输出特征图缓存区、配置信息数据缓存区。BNRP计算器可执行两种计算模式,包含:R*T个数据输入和输出接口、R*T个池化器、归一化计算模块和非线性激活计算模块,各功能模块按流水线方式并行执行。本发明能够根据各种网络结构的特点,动态配置并行加速计算模块执行模式.且通用性好,对网络结构层复杂且规模相对较大的卷积神经网络,可极大地降低计算复杂度,功耗低、吞吐量高。
-
公开(公告)号:CN112329910B
公开(公告)日:2024-06-04
申请号:CN202011071970.2
申请日:2020-10-09
Applicant: 东南大学
IPC: G06N3/0464 , G06N3/082 , G06N3/084
Abstract: 本发明提出了一种面向结构剪枝结合量化的深度卷积神经网络压缩方法,属于计算、推算或计数的技术领域。该压缩方法在反向传播的过程中通过梯度下降的方式更新权重参数,并根据网络损失精度对更新后的权重进行结构剪枝,实现权重参数的可连续更新并加快卷积计算的处理速度。本发明利用FPGA实现的加速器以该压缩方法得到的权重编码为输入数据,通过包括448个SQPE的并行计算阵列实现高并行特征值与结构剪枝后权重的移位累加操作,支持不同压缩率结构化剪枝后的稀疏网络的卷积操作,实现了硬件友好型低功耗高吞吐量的加速器。
-
公开(公告)号:CN112329910A
公开(公告)日:2021-02-05
申请号:CN202011071970.2
申请日:2020-10-09
Applicant: 东南大学
Abstract: 本发明提出了一种面向结构剪枝结合量化的深度卷积神经网络压缩方法,属于计算、推算或计数的技术领域。该压缩方法在反向传播的过程中通过梯度下降的方式更新权重参数,并根据网络损失精度对更新后的权重进行结构剪枝,实现权重参数的可连续更新并加快卷积计算的处理速度。本发明利用FPGA实现的加速器以该压缩方法得到的权重编码为输入数据,通过包括448个SQPE的并行计算阵列实现高并行特征值与结构剪枝后权重的移位累加操作,支持不同压缩率结构化剪枝后的稀疏网络的卷积操作,实现了硬件友好型低功耗高吞吐量的加速器。
-
-
-