-
公开(公告)号:CN114330658B
公开(公告)日:2025-03-14
申请号:CN202111630592.1
申请日:2021-12-28
Applicant: 北京航天自动控制研究所
IPC: G06N3/0464 , G06N3/063 , G06N3/08
Abstract: 本发明涉及一种动态可重构的卷积神经网络多核加速器,包括指令分发模块和与其连接、受其控制的加载模块、路由模块、计算模块和卸载模块;加载模块从外部加载输入特征数据和卷积核数据;路由模块将加载的数据分配给计算模块进行卷积神经网络加速处理;计算模块将结果通过卸载模块输出;加载模块、路由模块、计算模块和卸载模块中包括多路的加载器、路由器、计算核心和卸载器;在卷积神经网络处理过程中,指令分发模块对多路加载器、路由器、计算核心和卸载器进行分组动态重构,在计算核心中加载特征数据和卷积核数据,执行并行卷积神经网络加速处理。本发明利用动态重构实现多个计算核心间的并行,提高卷积神经网络的大动态适应能力。
-
公开(公告)号:CN114265696B
公开(公告)日:2024-12-20
申请号:CN202111632969.7
申请日:2021-12-28
Applicant: 北京航天自动控制研究所
IPC: G06F9/50 , G06N3/0464 , G06N3/063 , G06N3/08
Abstract: 本发明涉及一种针对卷积神经网络最大池化层的池化器及池化加速电路,池化器包括第一选择器、第二选择器、比较器、常数寄存器和池化寄存器;比较器的第一输入端输入池化窗口中的特征数据,第二输入端接入第一选择器的输出数据,输出端连接到第二选择器;第一选择器的第一输入端连接常数寄存器,第二输入端连接外部的池化缓存从中读取数据,第三输入端连接池化寄存器输出端;第二选择器的第一输出端作为池化最终结果输出端,第二输出端连接外部的池化缓存向其写入数据,第三输出端连接池化寄存器的输入端。本发明以尽可能小的FPGA资源消耗量,实现常见CNN中最大池化层的高效计算,进而解决将CNN部署到嵌入式设备中遇到的实时性问题和功耗问题。
-
公开(公告)号:CN114327676B
公开(公告)日:2024-07-19
申请号:CN202111632984.1
申请日:2021-12-28
Applicant: 北京航天自动控制研究所
IPC: G06F9/445 , G06F9/50 , G06N3/0464 , G06N3/063 , G06N3/08
Abstract: 本发明涉及一种面向卷积神经网络的高可靠加速器,包括指令分发模块和与其连接、受其控制的加载模块、路由模块、计算模块、冗余控制模块、和卸载模块;在指令分发控制模块的控制下,所述加载模块从外部加载输入特征数据和卷积核数据;路由模块将加载的数据分配给计算模块;所述计算模块中包括多个并列的计算核心,每个计算核心均用于接收分配数据进行卷积神经网络加速处理,输出处理结果;冗余控制模块将所述计算模块输出的多路计算结果输出到所述卸载模块,通过卸载模块将卷积神经网络加速处理结果卸载输出。本发明实现了卷积神经网络的加速处理,并兼顾卷积神经网络的高速处理和高可靠性处理的要求。
-
公开(公告)号:CN115809691A
公开(公告)日:2023-03-17
申请号:CN202211585769.5
申请日:2022-12-10
Applicant: 北京航天自动控制研究所
Inventor: 王晓峰 , 李晓敏 , 周辉 , 赵雄波 , 盖一帆 , 蒋彭龙 , 路坤锋 , 李超然 , 谢宇嘉 , 吴敏 , 林平 , 董文杰 , 吴松龄 , 弥寒光 , 黄鹂 , 赵冠杰 , 林玉野 , 李杨珺 , 王森 , 李杰 , 杨庆军 , 靳蕊溪
IPC: G06N3/063 , G06F17/16 , G06N3/0464
Abstract: 本公开属于神经网络加速计算技术领域,具体而言涉及一种基于Winograd的相关算法加速器计算方法,包括:获取基准张量块和实时张量块;通过Winograd变换由基准张量块得到第一张量块,由实时张量块得到第二张量块;通过张量块逐点相乘由第一张量块和第二张量块得到第三张量块;沿通道方向累加所述第三张量块,得到第一矩阵;通过Winograd反变换由第一矩阵得到第二矩阵;逐点相加第二矩阵和偏执矩阵,得到过程矩阵;将所述过程矩阵输入至过程张量缓存中,遍历结束后输出。上述过程提高计算速率和计算连续性。
-
公开(公告)号:CN115759220A
公开(公告)日:2023-03-07
申请号:CN202211584828.7
申请日:2022-12-10
Applicant: 北京航天自动控制研究所
Inventor: 王晓峰 , 周辉 , 赵雄波 , 盖一帆 , 蒋彭龙 , 路坤锋 , 李晓敏 , 李超然 , 谢宇嘉 , 林平 , 董文杰 , 吴松龄 , 弥寒光 , 黄鹂 , 吴敏 , 赵冠杰 , 李杨珺 , 王森 , 李杰 , 徐天运 , 靳蕊溪 , 林玉野
Abstract: 本公开属于人工智能处理器技术领域,具体而言涉及一种基于Winograd的深度学习处理系统,包括:输入通道,与外部设备通信;输入特征加载器,与所述输入通道相连;路由模块,与所述输入层加载器相连;卷积加速器核心模块,与路由模块相连,所述卷积核加速器核心模块包括至少两个并行设置的卷积核加速器子核心模块;通道累加器,与卷积加速器核心模块相连,用于累加并行的卷积核加速器子核心模块的输出数据;特征卸载器,与通道累加器相连,将所述通道累加器的输出数据传输至处理系统外。通过多尺寸Wino‑DPU混合架构,通过核间算力的最优分配,实现Wino‑DPU灵活性和高效性的全面提升,进而有效提升深度学习算法的计算效率。
-
公开(公告)号:CN114358266A
公开(公告)日:2022-04-15
申请号:CN202111683726.6
申请日:2021-12-28
Applicant: 北京航天自动控制研究所
Abstract: 本发明涉及一种数据流驱动的卷积神经网络加速器,包括:预处理模块、卷积模块、池化模块和指令分发模块;预处理模块用于加载输入特征执行卷积神经网络的预处理;卷积模块用于加载权重、偏置数据以及输入特征执行卷积层、全连接层或非线性激活层的计算;池化模块用于加载卷积模块的计算结果执行池化层的计算输出;指令分发模块用于对所述预处理模块、卷积模块和池化模块进行工作模式的配置和控制;在指令分发模块的工作模式配置和控制下,根据卷积神经网络结构,将预处理模块、卷积模块和池化模块进行动态的流式结构连接;实现对输入数据的卷积神经网络加速处理。本发明提高CNN加速器的可扩展性,提升系统的整体性能。
-
公开(公告)号:CN114327629B
公开(公告)日:2025-03-14
申请号:CN202111682235.X
申请日:2021-12-28
Applicant: 北京航天自动控制研究所
IPC: G06F9/30 , G06F7/501 , G06F7/523 , G06N3/0464 , G06N3/063
Abstract: 本发明涉及一种基于FPGA的二维多通道卷积硬件加速器,包括:控制单元、偏置缓存、权重缓存、输入特征缓存、卷积缓存、权重预读寄存器组、PE阵列、非线性单元、第二选通器和第三选通器;特征缓存连接PE阵列;权重缓存通过权重预读寄存器组连接PE阵列;偏置缓存与卷积缓存通过第三选通器连接PE阵列,PE阵列输出端通过第二选通器连接卷积缓存和非线性单元;输入特征缓存、偏置缓存和权重缓存加载数据;权重预读寄存器组对权重缓存进行预读寄存;PE阵列写入输入特征、预读寄存的权重数据,偏置数据或卷积中间结果进行卷积运算,将卷积中间结果写入卷积缓存,将卷积最终结果经非线性单元激活后输出。本发明实现对CNN中任意规模卷积层的高效计算。
-
公开(公告)号:CN115809024A
公开(公告)日:2023-03-17
申请号:CN202211586179.4
申请日:2022-12-10
Applicant: 北京航天自动控制研究所
Inventor: 王晓峰 , 赵雄波 , 周辉 , 盖一帆 , 蒋彭龙 , 路坤锋 , 李晓敏 , 李超然 , 谢宇嘉 , 黄鹂 , 林平 , 董文杰 , 吴松龄 , 弥寒光 , 吴敏 , 赵冠杰 , 徐天运 , 李杨珺 , 李杰 , 杨庆军 , 靳蕊溪 , 林玉野 , 王森
Abstract: 本公开属于神经网络存储技术领域,涉及一种基于Winograd的相关算法加速器存储方法,包括S1获取相关结果矩阵块和实时图矩阵块的大小,获取相关结果矩阵和实时图张量的大小和加速单元的通道并行度;S2由片外存储向基准张量第一区域存储基准图张量块;S3由片外存储向实时张量缓存实时图张量块;S4由基准图张量缓存中的第一区域读取数据,将读取的最后两行数据写入基准图张量缓存中的第二区域的前两行;S5由基准张量缓存中读张量块并预写入基准张量寄存器组;S6由实时图张量缓存向实时图张量图寄存器写入张量块;S7将基准寄存器组的前列数据搬移到后列,同时将基准张量缓存中读取数据到寄存器组前列;S8在不同的寄存器组之间处理和计算后写入张量寄存器组。
-
公开(公告)号:CN115731094A
公开(公告)日:2023-03-03
申请号:CN202211585037.6
申请日:2022-12-10
Applicant: 北京航天自动控制研究所
Inventor: 王晓峰 , 蒋彭龙 , 周辉 , 谢宇嘉 , 赵雄波 , 盖一帆 , 路坤锋 , 李晓敏 , 李超然 , 弥寒光 , 林平 , 董文杰 , 吴松龄 , 黄鹂 , 吴敏 , 赵冠杰 , 杨庆军 , 李杨珺 , 王森 , 李杰 , 林玉野 , 靳蕊溪
IPC: G06T1/60
Abstract: 本公开属于算法硬件电路设计技术领域,具体而言涉及一种基于Winograd的相关算法加速器存储系统,包括:片外存储;片上张量缓存,与片外存储相连,所述片上张量缓存包括基准张量缓存、实时张量缓存以及过程张量缓存,其中基准张量缓存基于所述加速器的数据重用缓存计算所需的基准图张量块,实时张量缓存基于所述加速器的数据重用缓存计算所需的实时图张量块,过程张量缓存基于所述加速器的数据重用缓存当前计算产生的中间结果数据;和多个寄存器,与片上张量缓存相连,接收和/或输送基准图和/或实时图的处理数据。本公开满足计算单元高吞吐量的数据需求,还能利用尽可能少的片上资源,实现高数据复用率,降低加速器对片外存储带宽的需求。
-
公开(公告)号:CN119929183A
公开(公告)日:2025-05-06
申请号:CN202411917032.8
申请日:2024-12-24
Applicant: 北京航天自动控制研究所
IPC: B64G1/24
Abstract: 本发明涉及一种发射地火转移轨道的全窗口自适应制导方法,包括:根据发射时间规划基于二次曲线的迭代制导目标轨道,得出轨道根数;预估火箭飞行的最后一个主动段的关机时间,根据地球自转角速度和所述关机时间对受飞行时间影响的目标轨道根数进行修正;根据发射时间建立迭代制导初值,结合目标轨道根数,采用单级迭代制导方法,在火箭飞行的最后一个主动段,在每个制导周期进行迭代制导计算以更新程序角;根据发射时间,更新最后一个主动段的关机量,用于结束主动段飞行。本发明实现了对主动段制导方法的自适应调整,实现对发射时间偏差的修正,达到了全窗口内高精度入轨的目的。
-
-
-
-
-
-
-
-
-