-
公开(公告)号:CN115905363A
公开(公告)日:2023-04-04
申请号:CN202211555122.8
申请日:2022-12-05
Applicant: 北京航天自动控制研究所
Inventor: 周辉 , 谢宇嘉 , 王晓峰 , 李悦 , 赵雄波 , 吴松龄 , 盖一帆 , 路坤峰 , 李晓敏 , 张隽 , 弭寒光 , 董文杰 , 靳蕊溪 , 吴敏 , 赵冠杰 , 阳徽 , 费亚男 , 赵伟
IPC: G06F16/2458 , G06F16/2455 , G06F16/248
Abstract: 本发明涉及一种数据的实时排序系统,其包括控制单元,输入数据预处理单元,排序模块以及数据缓存与输出单元,所述控制单元用于实现所述输入数据预处理单元和排序模块的控制,所述输入数据预处理单元用于确定所述排序模块是否能够接收新的外部数据并用于判定是否将序列数据输入所述排序模块,所述排序模块用于对输入其内的序列数据进行排序,所述数据缓存与输出单元用于对排序后的数据进行信息缓存和输出。其降低了输入数据从外部存储器读取的次数,降低了数据通讯量与数据存取开销,以尽可能小的FPGA资源消耗量,支持任意规模的数据排序操作,大幅压缩了排序运算的耗时,从而降低了排序操作的运算成本并提升了其效率。
-
公开(公告)号:CN115936067A
公开(公告)日:2023-04-07
申请号:CN202211539305.0
申请日:2022-12-01
Applicant: 北京航天自动控制研究所
Inventor: 谢宇嘉 , 王晓峰 , 李悦 , 周辉 , 赵雄波 , 张辉 , 吴松龄 , 李晓敏 , 杨钧宇 , 路坤峰 , 张隽 , 丛龙剑 , 盖一帆 , 李山山 , 吴敏 , 林玉野 , 靳蕊溪
IPC: G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本公开涉及一种具有ECA通道注意力机制的神经网络,所述神经网络包括ECA通道注意力装置,所述ECA通道注意力装置包括:第一层级量化单元,对所述所输入数据进行层级量化,将浮点数输入数据转化为定点数输入数据;在所述第一层级量化模块中,整个输入张量共用一个量化步长和量化零点;通道级量化单元,对所述激活层的输出进行层级量化,所述通道级量化模块对每一个通道都单独计算一个量化步长和量化零点;通道乘法加权模块,所述第一层级量化输出数据与所述通道级量化输出数据进行通道加权乘法计算。本公开通过将一维卷积层级的结果进行无损精度输出,将激活层模块沿通道方向进行量化,其他数据使用层级量化操作的方案解决模型精度下降的问题。
-
公开(公告)号:CN115809024A
公开(公告)日:2023-03-17
申请号:CN202211586179.4
申请日:2022-12-10
Applicant: 北京航天自动控制研究所
Inventor: 王晓峰 , 赵雄波 , 周辉 , 盖一帆 , 蒋彭龙 , 路坤锋 , 李晓敏 , 李超然 , 谢宇嘉 , 黄鹂 , 林平 , 董文杰 , 吴松龄 , 弥寒光 , 吴敏 , 赵冠杰 , 徐天运 , 李杨珺 , 李杰 , 杨庆军 , 靳蕊溪 , 林玉野 , 王森
Abstract: 本公开属于神经网络存储技术领域,涉及一种基于Winograd的相关算法加速器存储方法,包括S1获取相关结果矩阵块和实时图矩阵块的大小,获取相关结果矩阵和实时图张量的大小和加速单元的通道并行度;S2由片外存储向基准张量第一区域存储基准图张量块;S3由片外存储向实时张量缓存实时图张量块;S4由基准图张量缓存中的第一区域读取数据,将读取的最后两行数据写入基准图张量缓存中的第二区域的前两行;S5由基准张量缓存中读张量块并预写入基准张量寄存器组;S6由实时图张量缓存向实时图张量图寄存器写入张量块;S7将基准寄存器组的前列数据搬移到后列,同时将基准张量缓存中读取数据到寄存器组前列;S8在不同的寄存器组之间处理和计算后写入张量寄存器组。
-
公开(公告)号:CN115731094A
公开(公告)日:2023-03-03
申请号:CN202211585037.6
申请日:2022-12-10
Applicant: 北京航天自动控制研究所
Inventor: 王晓峰 , 蒋彭龙 , 周辉 , 谢宇嘉 , 赵雄波 , 盖一帆 , 路坤锋 , 李晓敏 , 李超然 , 弥寒光 , 林平 , 董文杰 , 吴松龄 , 黄鹂 , 吴敏 , 赵冠杰 , 杨庆军 , 李杨珺 , 王森 , 李杰 , 林玉野 , 靳蕊溪
IPC: G06T1/60
Abstract: 本公开属于算法硬件电路设计技术领域,具体而言涉及一种基于Winograd的相关算法加速器存储系统,包括:片外存储;片上张量缓存,与片外存储相连,所述片上张量缓存包括基准张量缓存、实时张量缓存以及过程张量缓存,其中基准张量缓存基于所述加速器的数据重用缓存计算所需的基准图张量块,实时张量缓存基于所述加速器的数据重用缓存计算所需的实时图张量块,过程张量缓存基于所述加速器的数据重用缓存当前计算产生的中间结果数据;和多个寄存器,与片上张量缓存相连,接收和/或输送基准图和/或实时图的处理数据。本公开满足计算单元高吞吐量的数据需求,还能利用尽可能少的片上资源,实现高数据复用率,降低加速器对片外存储带宽的需求。
-
公开(公告)号:CN120047786A
公开(公告)日:2025-05-27
申请号:CN202411882862.1
申请日:2024-12-19
Applicant: 北京航天自动控制研究所
IPC: G06V10/82 , G06V10/764 , G06N3/049
Abstract: 本发明公开了一种面向网络层的ANN模型到SNN模型转换方法,属于智能信息处理技术领域,用于对目标图像分类识别。该转换方法首先建立目标图像数据集和建立用于实现对图像中的目标进行分类识别的ANN模型,基于该数据集训练好ANN模型,再转化为SNN模型。其次,将该数据集中的图像数据编码为脉冲序列格式,形成针对SNN模型的数据集,并校准SNN模型每一层的参数,得到满足精度需求的SNN模型。最后,将待测图像数据编码为脉冲序列格式,输入SNN模型,得到目标分类识别的结果。本发明在干扰强度大的环境下,实现对目标的高精度识别。
-
公开(公告)号:CN115827553A
公开(公告)日:2023-03-21
申请号:CN202211584357.X
申请日:2022-12-10
Applicant: 北京航天自动控制研究所
Inventor: 王晓峰 , 周辉 , 谢宇嘉 , 赵雄波 , 盖一帆 , 蒋彭龙 , 路坤锋 , 李晓敏 , 李超然 , 林平 , 赵冠杰 , 董文杰 , 吴松龄 , 弥寒光 , 黄鹂 , 吴敏 , 林玉野 , 李杨珺 , 王森 , 李杰 , 徐天运 , 靳蕊溪
IPC: G06F15/78 , G06F13/40 , G06N3/0464 , G06N3/063
Abstract: 本发明涉及一种面向CNN加速计算的带宽自适应的数据传输方法,包括:通过主控向指令配置模块从外部存储装置中写入输入特征图的基本信息;地址自动生成模块根据配置信息生成每次传输的地址信息,并将该地址信息传输给AX I驱动模块;AXI驱动模块根据配置信息和地址自动生成模块的信息,发起数据块的读取操作,并将数据写入自动插值模块;AX I数据感知模块感知通道信号的占空比,以及占空比的变化速率,并将该信息反馈给AXI驱动模块;自动插值将预定值插入数据流的预定位置,并将插值后的数据写入F I FO驱动模块;F I FO驱动模块根据F I FO的状态确定数据的读取和写入操作。通过上述方法提高加速核与外部存储装置之间的数据传输效率。
-
公开(公告)号:CN115796253A
公开(公告)日:2023-03-14
申请号:CN202211585982.6
申请日:2022-12-10
Applicant: 北京航天自动控制研究所
Inventor: 王晓峰 , 周辉 , 路坤锋 , 赵雄波 , 盖一帆 , 蒋彭龙 , 李晓敏 , 李超然 , 谢宇嘉 , 赵冠杰 , 林平 , 董文杰 , 吴松龄 , 弥寒光 , 黄鹂 , 吴敏 , 李杨珺 , 王森 , 李杰 , 徐天运 , 靳蕊溪 , 林玉野
IPC: G06N3/063 , G06F5/06 , G06N3/0464
Abstract: 本发明涉及一种带宽自适应的数据传输的卷积神经网络加速计算系统,包括卷积神经网络加速器,用于执行具体的数据计算;以及带宽自适应数据传输装置,设置在所述卷积神经网络加速器和外部存储装置之间,感知卷积神经网络加速器的数据消耗和生成速率、感知外部存储装置带宽的占用情况;根据感知数据确定卷积神经网络加速器和所述外部存储装置之间的数据传输策略;所述带宽自适应数据传输装置包括数据加载模块和数据卸载模块。通过上述结构可动态适应片外存储带宽,可大幅提升数据传输的连续性,从而有效提升卷积神经网络加速器的片外数据传输带宽。
-
公开(公告)号:CN115759235A
公开(公告)日:2023-03-07
申请号:CN202211602462.1
申请日:2022-12-10
Applicant: 北京航天自动控制研究所
Inventor: 王晓峰 , 谢宇嘉 , 周辉 , 赵雄波 , 盖一帆 , 路坤锋 , 蒋彭龙 , 李晓敏 , 李超然 , 董文杰 , 林平 , 吴松龄 , 弥寒光 , 黄鹂 , 吴敏 , 赵冠杰 , 王森 , 李杨珺 , 杨庆军 , 靳蕊溪 , 林玉野 , 李杰
IPC: G06N3/08
Abstract: 本公开属于神经网络处理方法技术领域,具体而言涉及一种基于Winograd的深度学习处理方法,包括:获取待计算单元的大小;获取多个具有不同尺寸的加速核的大小;根据多个加速核的大小得到计算比例;根据待计算单元的大小和计算比例得到待计算单元的划分区域,所述待计算单元的划分区域与加速核的大小相对应;根据划分区域进行计算,然后汇总完成所述待计算单元的加速计算。本公开利用不同卷积核尺寸和输出尺寸的Winograd加速核(Wino‑Core)在灵活性和高效性方面的差异性,在高度可扩展的深度学习处理器架构中组合多个不同尺寸的Wino‑Core,形成多核混合异构的深度学习处理器,并通过核间算力的最优分配,实现Wino‑DPU灵活性和高效性的全面提升。
-
公开(公告)号:CN115935888A
公开(公告)日:2023-04-07
申请号:CN202211552350.X
申请日:2022-12-05
Applicant: 北京航天自动控制研究所
Inventor: 周辉 , 王晓峰 , 谢宇嘉 , 李悦 , 赵雄波 , 吴松龄 , 盖一帆 , 路坤峰 , 李晓敏 , 张隽 , 弭寒光 , 董文杰 , 靳蕊溪 , 吴敏 , 赵冠杰 , 阳徽 , 费亚男 , 李洋 , 赵伟
IPC: G06F30/392 , G06N3/0464 , G06N3/063
Abstract: 本公开属于专用算法硬件电路设计技术领域,具体而言涉及一种神经网络加速系统包括:信息配置模块;和池化加速单元包括:控制模块,控制模块根据信息配置模块的参数信息得到张量块的信息以及地址信息;输入张量缓存模块,与控制模块相连,根据由控制模块得到的输入张量块地址信息缓存从外部存储模块的输入张量块;过程张量缓存模块,与控制模块相连,根据由控制模块得到的输出张量块地址信息缓存沿宽度方向池化的输出张量块,并提供沿高度方向池化的输入数据;池化器阵列模块,分别与输入张量缓存模块和过程张量缓存模块相连,进行宽度方向的池化和高度方向的池化,并沿通道方向进行并行计算,以缩短池化耗时。
-
公开(公告)号:CN115906972A
公开(公告)日:2023-04-04
申请号:CN202211551893.X
申请日:2022-12-05
Applicant: 北京航天自动控制研究所
Inventor: 周辉 , 谢宇嘉 , 王晓峰 , 李悦 , 赵雄波 , 吴松龄 , 盖一帆 , 路坤峰 , 李晓敏 , 张隽 , 弭寒光 , 董文杰 , 靳蕊溪 , 吴敏 , 赵冠杰 , 阳徽 , 费亚男 , 李洋 , 赵伟
IPC: G06N3/063 , G06N3/0464
Abstract: 本公开属于神经网络技术领域,具体而言涉及一种神经网络池化层加速方法,包括:获取配置参数信息;根据所述配置参数信息得到张量块的信息数据;所述张量块包括输入张量块和输出张量块,所述信息数据包括张量块的缓存地址;基于所述缓存地址获取输入数据;根据所述配置参数信息对所述输入数据进行宽度方向的池化,并将过程数据缓存;基于所述过程数据进行高度方向的池化;重复池化步骤,直至遍历所有输入张量块。以缩短池化运算的耗时。
-
-
-
-
-
-
-
-
-