一种基于FPGA的图卷积神经网络的流水线结构

    公开(公告)号:CN115952845A

    公开(公告)日:2023-04-11

    申请号:CN202211577750.6

    申请日:2022-12-09

    Applicant: 复旦大学

    Inventor: 叶景格 王堃

    Abstract: 本发明公开了一种基于FPGA的图卷积神经网络的流水线结构。其用一个流水线形式的缓存来链接结合模块和聚合模块,同时每一层图卷积神经网络先进行结合模块的计算,然后将其结果送入中间的流水线中,再进入聚合模块。所述各个模块的输入和输出都是矩阵的形式,结合模块一列一列地依次输出,一次输出一列的数据进入流水线,再将这一列的数据进入聚合模块,以使得聚合模块直接计算矩阵和一列数据的乘法,也就是矩阵和向量的乘法。本发明的结构中结合模块以及聚合模块内部能够并行计算,并且这两个模块之间使用流水线的方式相连,能减少整个神经网络的推理过程的延迟。

    一种基于FPGA的图卷积神经网络的混合精度量化方法

    公开(公告)号:CN115906945A

    公开(公告)日:2023-04-04

    申请号:CN202211578073.X

    申请日:2022-12-09

    Applicant: 复旦大学

    Inventor: 叶景格 王堃

    Abstract: 本发明公开了一种基于FPGA的图卷积神经网络的混合精度量化方法。本发明包括采用不同数据位宽对图卷积神经网络的输入矩阵以及不同层进行量化的步骤;以及采用对称的线性量化方法对图卷积神经网络的输入矩阵进行量化的步骤;本发明除了基本量化方式的改进以外,还将混合精度量化的思想嵌入到图卷积神经网络中,对于不同的矩阵数据,采取不同的数据位宽进行量化,对于位于GCN中不同层的矩阵数据,也使用不同的数据位宽进行量化。本发明的量化方法能在提高模型量化精度的同时,实现对整个GCN模型进一步的压缩,使其更加容易在FPGA上部署。

    基于FPGA的图卷积神经网络模型的压缩方法和系统

    公开(公告)号:CN115392439A

    公开(公告)日:2022-11-25

    申请号:CN202211135352.9

    申请日:2022-09-19

    Applicant: 复旦大学

    Inventor: 叶景格 王堃

    Abstract: 本发明属于人工智能数据处理技术领域,具体为一种基于FPGA的图卷积神经网络模型的压缩方法和系统;在本发明的FPGA的现场可编程门阵列系统芯片的图卷积神经网络模型的压缩系统中,输入模块主要用于输入邻接矩阵A和参数矩阵W,邻接矩阵计算模块主要用于邻接矩阵A和参数矩阵W的计算,组合模块主要用于将图卷积神经网络模型中的某一层特征矩阵Xn与参数矩阵W进行组合,聚合模块主要用于将图卷积神经网络模型中的Xn+1层与Xn+2层进行合并,合并得到新的Xn+2层,输出模块主要用于输出压缩后的图卷积神经网络模型。本发明的基于FPGA的图卷积神经网络模型的压缩方法和系统在保证处理结果精确的同时能降低运算速率。

    基于FPGA的图卷积神经网络稀疏矩阵乘法分配系统

    公开(公告)号:CN115390788A

    公开(公告)日:2022-11-25

    申请号:CN202211135363.7

    申请日:2022-09-19

    Applicant: 复旦大学

    Inventor: 叶景格 王堃

    Abstract: 本发明属于CPU数据处理技术领域,具体为一种基于FPGA的图卷积神经网络稀疏矩阵乘法分配系统。本发明在CPU运算器内设置稀疏矩阵预处理模块,存储器内设有FPGA模块;将输入的CSC格式的稀疏矩阵发送至存储器中,CSC格式文件将稀疏矩阵压缩为三个数组:行索引记录数组、列索引记录数组以及非零值数组,稀疏矩阵预处理模块通过从存储器中调取数据流,并对该稀疏矩阵的行索引记录数组、列索引记录数组以及非零值数组进行运算,实现稀疏矩阵乘法分配。本发明中的基于FPGA的图卷积神经网络稀疏矩阵乘法分配系统CPU数据处理速率快。

Patent Agency Ranking