-
公开(公告)号:CN115905363A
公开(公告)日:2023-04-04
申请号:CN202211555122.8
申请日:2022-12-05
Applicant: 北京航天自动控制研究所
Inventor: 周辉 , 谢宇嘉 , 王晓峰 , 李悦 , 赵雄波 , 吴松龄 , 盖一帆 , 路坤峰 , 李晓敏 , 张隽 , 弭寒光 , 董文杰 , 靳蕊溪 , 吴敏 , 赵冠杰 , 阳徽 , 费亚男 , 赵伟
IPC: G06F16/2458 , G06F16/2455 , G06F16/248
Abstract: 本发明涉及一种数据的实时排序系统,其包括控制单元,输入数据预处理单元,排序模块以及数据缓存与输出单元,所述控制单元用于实现所述输入数据预处理单元和排序模块的控制,所述输入数据预处理单元用于确定所述排序模块是否能够接收新的外部数据并用于判定是否将序列数据输入所述排序模块,所述排序模块用于对输入其内的序列数据进行排序,所述数据缓存与输出单元用于对排序后的数据进行信息缓存和输出。其降低了输入数据从外部存储器读取的次数,降低了数据通讯量与数据存取开销,以尽可能小的FPGA资源消耗量,支持任意规模的数据排序操作,大幅压缩了排序运算的耗时,从而降低了排序操作的运算成本并提升了其效率。
-
公开(公告)号:CN114330658A
公开(公告)日:2022-04-12
申请号:CN202111630592.1
申请日:2021-12-28
Applicant: 北京航天自动控制研究所
Abstract: 本发明涉及一种动态可重构的卷积神经网络多核加速器,包括指令分发模块和与其连接、受其控制的加载模块、路由模块、计算模块和卸载模块;加载模块从外部加载输入特征数据和卷积核数据;路由模块将加载的数据分配给计算模块进行卷积神经网络加速处理;计算模块将结果通过卸载模块输出;加载模块、路由模块、计算模块和卸载模块中包括多路的加载器、路由器、计算核心和卸载器;在卷积神经网络处理过程中,指令分发模块对多路加载器、路由器、计算核心和卸载器进行分组动态重构,在计算核心中加载特征数据和卷积核数据,执行并行卷积神经网络加速处理。本发明利用动态重构实现多个计算核心间的并行,提高卷积神经网络的大动态适应能力。
-
公开(公告)号:CN114327629A
公开(公告)日:2022-04-12
申请号:CN202111682235.X
申请日:2021-12-28
Applicant: 北京航天自动控制研究所
Abstract: 本发明涉及一种基于FPGA的二维多通道卷积硬件加速器,包括:控制单元、偏置缓存、权重缓存、输入特征缓存、卷积缓存、权重预读寄存器组、PE阵列、非线性单元、第二选通器和第三选通器;特征缓存连接PE阵列;权重缓存通过权重预读寄存器组连接PE阵列;偏置缓存与卷积缓存通过第三选通器连接PE阵列,PE阵列输出端通过第二选通器连接卷积缓存和非线性单元;输入特征缓存、偏置缓存和权重缓存加载数据;权重预读寄存器组对权重缓存进行预读寄存;PE阵列写入输入特征、预读寄存的权重数据,偏置数据或卷积中间结果进行卷积运算,将卷积中间结果写入卷积缓存,将卷积最终结果经非线性单元激活后输出。本发明实现对CNN中任意规模卷积层的高效计算。
-
公开(公告)号:CN119942071A
公开(公告)日:2025-05-06
申请号:CN202411971469.X
申请日:2024-12-30
Applicant: 北京航天自动控制研究所
IPC: G06V10/25 , G06V10/82 , G06N3/0464 , G06N3/08 , G06F17/10 , G06N3/048 , G06V10/774 , G06V20/10
Abstract: 本发明公开了一种面向复杂数据集的二值化目标检测方法。二值化目标检测算法,在各种性能受限的嵌入式以及低功耗设备上具有广泛的应用前景。然而,复杂数据集中的目标特性、噪声和变化对二值化网络提出了更高的要求,当二值化YOLOv5s模型在应用于复杂数据集,如光学遥感数据集时,往往会导致模型检测准确率显著下降。本发明公开了一种多颗粒度缩放因子选取方法,针对不同复杂度的数据集,通过方法自动选择合适颗粒度的缩放因子,使得二值化YOLOv5‑MobileNetV2检测网络可以适应不同复杂程度的数据集,平衡部署算法的检测精度和计算性能。
-
公开(公告)号:CN119942070A
公开(公告)日:2025-05-06
申请号:CN202411971456.2
申请日:2024-12-30
Applicant: 北京航天自动控制研究所
IPC: G06V10/25 , G06V10/82 , G06N3/0464 , G06N3/048 , G06V10/80 , G06N5/04 , G06V10/774
Abstract: 本发明公开一种在量化感知训练中目标检测模型的处理方法。深度模型通常具有庞大的参数量以及复杂的计算过程,导致在移动设备和嵌入式设备等资源受限的平台上的部署和应用受到限制。将浮点数二值化为1‑bit可以极大减少存储空间,并提升推理的计算速度,有效解决资源受限问题。在二值化场景中,为了减少计算量,BN层通常会和卷积层进行融合,造成权重的偏差,对性能造成影响。本发明通过基于训练后量化的BN融合策略BQ‑P和基于BN层折叠的量化感知训练策略BNF‑QAT,使得深度神经网络二值化权重的最终精度不会受到BN层参数融合的影响,保持BN融合带来的计算速度提升的同时,消除BN层融合对任务性能的不利影响。
-
公开(公告)号:CN119580068A
公开(公告)日:2025-03-07
申请号:CN202411674703.2
申请日:2024-11-21
Applicant: 北京航天自动控制研究所
Inventor: 谢宇嘉 , 周辉 , 王晓峰 , 盖一帆 , 赵雄波 , 李超然 , 吴松龄 , 董文杰 , 弭寒光 , 王云龙 , 李然 , 路坤锋 , 李晓敏 , 靳蕊溪 , 杨立波 , 高琪 , 康旭冰
IPC: G06V10/82 , G06V20/17 , G06N3/048 , G06N3/0495
Abstract: 本发明提供了一种图像目标识别方法,包括:将图像集中的图像输入训练后的浮点数深度神经网络模型,获取浮点数深度神经网络模型各隐藏层输出浮点数的取值范围;根据浮点数深度神经网络模型各隐藏层输出浮点数的取值范围,结合量化后定点数的目标位宽值,确定每个隐藏层的输出浮点数与定点数非对称量化关系式中的参数;确定每个隐藏层的输出浮点数与定点数非对称量化关系式为:#imgabs0#在浮点数深度神经网络模型的各隐藏层后,分别采用各隐藏层对应的输出浮点数与定点数非对称量化关系式取代ReLU函数,获得定点数神经网络模型;向定点数神经网络模型中输入待测图像,定点数神经网络模型中各隐藏层输出的浮点数转化为定点数,并完成图像目标识别。
-
公开(公告)号:CN116048782A
公开(公告)日:2023-05-02
申请号:CN202211589824.8
申请日:2022-12-10
Applicant: 北京航天自动控制研究所
Inventor: 王晓峰 , 路坤锋 , 周辉 , 谢宇嘉 , 赵雄波 , 盖一帆 , 蒋彭龙 , 李晓敏 , 李超然 , 吴松龄 , 林平 , 董文杰 , 弥寒光 , 黄鹂 , 吴敏 , 赵冠杰 , 李杰 , 李杨珺 , 王森 , 杨庆军 , 靳蕊溪 , 林玉野 , 徐天运
IPC: G06F9/50 , G06N3/063 , G06N3/0464
Abstract: 本公开属于人工智能处理器技术领域,具体而言涉及一种基于Winograd的深度学习处理器核心模组,包括:控制模块,接收外部控制单元传递的指令,并产生控制信号;d‑Buffer模块,缓存来及外部的输入特征,所述d‑Buffer模块与所述控制模块相连,所述控制模块控制d‑Buffer模块每个时钟周期的动作;和PE阵列,包括n个独立的计算单元,每个计算单元与d‑Buffer模块相连,所述计算单元计算每个输出通道的卷积,PE阵列进行n个输出通道的并行计算,所述控制模块控制PE阵列每个时钟周期的动作。本公开通过Winograd快速卷积方法解决基于FPGA的深度学习处理器的性能普遍受限于FPGA片上DSP资源数量的限制的问题,降低DSP数量对深度学习处理器性能的限制。
-
公开(公告)号:CN115906956A
公开(公告)日:2023-04-04
申请号:CN202211539304.6
申请日:2022-12-01
Applicant: 北京航天自动控制研究所
Inventor: 谢宇嘉 , 王晓峰 , 李悦 , 周辉 , 赵雄波 , 张辉 , 吴松龄 , 李晓敏 , 杨钧宇 , 路坤峰 , 张隽 , 丛龙剑 , 盖一帆 , 李山山 , 吴敏 , 林玉野 , 靳蕊溪
IPC: G06N3/0495 , G06N3/063 , G06F15/78
Abstract: 本公开涉及一种基于FPGA的神经网络模型轻量化方法,所述方法包括:步骤一、对需要计算的数据集进行预处理获得数据的最大值rmax、数据的最小值rmin、数据的均值m和方差σ2;步骤二、计算截断范围;步骤三、计算量化参数;计算量化所需参数量化步长s和量化零点z;步骤四、根据确定的参数进行量化计算。采用如上技术方案,将神经网络进行了适用于FPGA硬件的量化操作,减小了计算量,提高了计算效率。
-
公开(公告)号:CN115878956A
公开(公告)日:2023-03-31
申请号:CN202211584551.8
申请日:2022-12-10
Applicant: 北京航天自动控制研究所
Inventor: 王晓峰 , 盖一帆 , 周辉 , 赵雄波 , 路坤锋 , 蒋彭龙 , 李晓敏 , 李超然 , 谢宇嘉 , 赵冠杰 , 林平 , 董文杰 , 吴松龄 , 弥寒光 , 黄鹂 , 吴敏 , 靳蕊溪 , 李杨珺 , 王森 , 李杰 , 杨庆军 , 林玉野
Abstract: 本公开属于专用算法硬件电路技术领域,具体而言涉及一种基于Winograd的相关算法加速器计算系统,包括:张量变换单元,包括基准图变换单元,对基准图张量块进行Winograd变换,得到第一张量块;实时图变换单元,对实时图张量块进行Winograd变换,得到第二张量块;和结果变换单元,对第一矩阵进行Winograd反变换,得到第二矩阵;逐点相乘单元,将所述第一张量块和所述第二张量块进行逐点相乘,得到第三张量块;通道累加单元,将所述第三张量块沿通道方向进行累加,得到第一矩阵;以及偏置累加单元,将所述第二矩阵与偏置矩阵逐点相加,得到过程矩阵。通过上述设置以提高计算速率和计算连续性。
-
公开(公告)号:CN114265696A
公开(公告)日:2022-04-01
申请号:CN202111632969.7
申请日:2021-12-28
Applicant: 北京航天自动控制研究所
Abstract: 本发明涉及一种针对卷积神经网络最大池化层的池化器及池化加速电路,池化器包括第一选择器、第二选择器、比较器、常数寄存器和池化寄存器;比较器的第一输入端输入池化窗口中的特征数据,第二输入端接入第一选择器的输出数据,输出端连接到第二选择器;第一选择器的第一输入端连接常数寄存器,第二输入端连接外部的池化缓存从中读取数据,第三输入端连接池化寄存器输出端;第二选择器的第一输出端作为池化最终结果输出端,第二输出端连接外部的池化缓存向其写入数据,第三输出端连接池化寄存器的输入端。本发明以尽可能小的FPGA资源消耗量,实现常见CNN中最大池化层的高效计算,进而解决将CNN部署到嵌入式设备中遇到的实时性问题和功耗问题。
-
-
-
-
-
-
-
-
-