-
公开(公告)号:CN110689123A
公开(公告)日:2020-01-14
申请号:CN201910926748.7
申请日:2019-09-27
Applicant: 南京大学
Abstract: 本发明公开了一种基于脉动阵列的多隐层可复用的长短期记忆神经网络前向加速系统及方法,该系统包括:算法控制模块,负责控制计算流程;门向量计算模块,负责接收源数据并在控制模块控制下将源数据传入脉动阵列,依次计算门向量并存入存储模块;细胞状态计算模块,接收到启动信号后读入门向量数据,计算神经元状态值和隐藏层输出值,存入存储模块;存储地址生成模块,负责生成存储地址。有益效果:实现了输入-隐藏层的可复用,网络规模包括输出层节点数、隐藏层节点数、时间序列长度等可配置,灵活度高,可扩展性强,存储资源利用率高,运算速度快。
-
公开(公告)号:CN119645344A
公开(公告)日:2025-03-18
申请号:CN202411671575.6
申请日:2024-11-21
Applicant: 南京大学
Abstract: 本发明公开了一种用于神经网络的近似乘法器实现方法及近似乘法器,其技术方案要点是包括,输入第一操作数和第二操作数,将第一操作数拆分为低位部分和高位部分;对低位部分进行第一编码,得到多组第一编码数,并对高位部分进行第二编码,得到多组第二编码数;将多组第一编码数和多组第二编码数组装,形成组装操作数;根据组装操作数和第二操作数,生成部分积矩阵和对应部分积矩阵的截断误差补偿值;基于部分积矩阵和截断误差补偿值,生成第一操作数和第二操作数的近似乘法结果,本发明将近似高基编码与截断补偿结合使用,在保证计算精度和最终网络推理精度的前提下,大幅提升了近似乘法器的性能。
-
公开(公告)号:CN110689123B
公开(公告)日:2023-04-18
申请号:CN201910926748.7
申请日:2019-09-27
Applicant: 南京大学
IPC: G06N3/063 , G06N3/0464 , G06N3/08 , G06N3/0442
Abstract: 本发明公开了一种基于脉动阵列的多隐层可复用的长短期记忆神经网络前向加速系统及方法,该系统包括:算法控制模块,负责控制计算流程;门向量计算模块,负责接收源数据并在控制模块控制下将源数据传入脉动阵列,依次计算门向量并存入存储模块;细胞状态计算模块,接收到启动信号后读入门向量数据,计算神经元状态值和隐藏层输出值,存入存储模块;存储地址生成模块,负责生成存储地址。有益效果:实现了输入‑隐藏层的可复用,网络规模包括输出层节点数、隐藏层节点数、时间序列长度等可配置,灵活度高,可扩展性强,存储资源利用率高,运算速度快。
-
-