片上数据划分读写方法、系统及其装置

    公开(公告)号:CN105843775B

    公开(公告)日:2018-12-04

    申请号:CN201610210082.1

    申请日:2016-04-06

    Abstract: 本发明适用于存储技术领域,一种片上数据划分读写方法,其特征在于,包括:数据划分步骤,根据数据划分策略将片上数据存储在不同区域,分别存储在片内存储介质和片外存储介质;预先操作步骤,在进行数据拼接时预先对片内存储数据的片内地址索引进行操作处理;数据拼接步骤,根据数据拼接策略将所述片内存储数据和片外输入数据拼接得到原始数据表示。同时还提供相应的片上数据划分读写系统及其装置。借此,本发明重复数据高效地进行读写,从而降低访存带宽需求,同时提供良好的灵活性,从而降低片上存储开销。

    包括多个核心处理模块的人工神经网络的处理系统及方法

    公开(公告)号:CN108510064A

    公开(公告)日:2018-09-07

    申请号:CN201810249506.4

    申请日:2016-04-18

    Abstract: 本公开提供了一种包括多个核心处理模块的人工神经网络的处理系统及方法,其中,所述人工神经网络的处理系统,包括:多核心处理模块,其包括多个核心处理模块;其中,该多个核心处理模块共同复用输入神经元和/或权值。本公开包括多个核心处理模块的人工神经网络的处理系统及方法,其在神经网络处理系统中引入多核设计,从而提升神经网络处理系统的运算速度,使得神经网络处理系统性能更高,更加高效。

    计数方法及装置
    23.
    发明公开

    公开(公告)号:CN107818343A

    公开(公告)日:2018-03-20

    申请号:CN201711037201.9

    申请日:2017-10-30

    Abstract: 本公开提供了一种计数方法,包括:对一深度神经网络进行预训练;利用标记图像对预训练后的所述深度神经网络进行重训练,得到二分类的目标检测神经网络;以及利用所述二分类的目标检测神经网络对待计数的图像中包含的计数目标物体进行计数。本公开还提供了一种计数装置。本公开计数方法及装置应用范围广,可针对任意计数对象进行计数,节省人力并且提供了更高的通用性。

    一种神经网络加速器及其运算方法

    公开(公告)号:CN105892989B

    公开(公告)日:2017-04-12

    申请号:CN201610183040.3

    申请日:2016-03-28

    CPC classification number: G06F7/575

    Abstract: 本发明适用于神经网络算法领域,提供了一种神经网络加速器及其运算方法,该神经网络加速器包括片内存储介质、片内地址索引模块、核心计算模块以及多ALU装置,片内存储介质,用于存储外部传来的数据或用于存储计算过程中产生的数据;片内数据索引模块,用于执行运算时根据输入的索引映射至正确的存储地址;核心计算模块用于执行神经网络运算;多ALU装置用于从核心计算模块或片内存储介质获取输入数据执行核心计算模块无法完成的非线性运算。本发明在神经网络加速器中引入多ALU设计,从而提升非线性运算的运算速度,使得神经网络加速器更加高效。

    一种神经网络的处理方法、系统

    公开(公告)号:CN105930902A

    公开(公告)日:2016-09-07

    申请号:CN201610240416.X

    申请日:2016-04-18

    CPC classification number: G06F15/78 G06N3/063 G06F15/7807

    Abstract: 本发明适用于计算机技术领域,提供了一种神经网络处理系统的处理方法、系统,该神经网络的处理系统包括由多个核心处理模块组成的多核心处理模块、片上存储介质、片内地址索引模块以及ALU模块,多核心处理模块用于执行神经网络运算中的向量乘加操作,ALU模块用于从所述多核心处理模块或片上存储介质获取输入数据执行多核心处理模块无法完成的非线性运算,其中多个核心处理模块共享片上存储介质以及ALU模块,或者多个核心处理模块具有独立的片上存储介质以及ALU模块。本发明在神经网络处理系统中引入多核设计,从而提升神经网络处理系统的运算速度,使得神经网络处理系统性能更高,更加高效。

    用于智能处理器的指令分解方法、装置及电子设备

    公开(公告)号:CN111831333B

    公开(公告)日:2024-03-29

    申请号:CN202010689147.1

    申请日:2020-07-16

    Abstract: 本公开提供一种用于智能处理器的指令分解方法、装置及电子设备,所述智能处理器根据分形指令进行分形运算,所述方法包括:确定对所述分形指令的操作数进行分解的维度的分解优先级;根据所述分解优先级选择当前分解的维度;在所述当前分解的维度上,对所述分形指令的操作数进行串行分解。该指令分解方法,能够在合理时间范围内找到最佳分解方案,依据最佳分解方案,串行分解器按照粒度循环输出指令模板,通过累加,计算分解出的子指令中各操作数的地址,从而提高分形运算的并行效率。

    一种基于对象的强化学习方法及系统

    公开(公告)号:CN117689912A

    公开(公告)日:2024-03-12

    申请号:CN202211013747.1

    申请日:2022-08-23

    Abstract: 本发明提出一种基于对象的强化学习方法和系统,包括:智能体采集在当前所处环境的观测图像,从该观测图像中识别出对象的位置,并对其进行无监督聚类,得到各对象的类别标签;以该对象的类别标签为监督,通过卷积神经网络对该观测数据进行对象抽取,得到该观测图像的对象表示;基于该观测图像的对象表示,构建该观测图像中对象间的关系,作为该观测图像的特征向量,基于该特征向量执行学习策略,得到目标动作,该智能体执行该目标动作与该环境产生交互。该发明可以提升强化学习中策略的推理能力,使其具备较高的泛化能力。

    一种基于软流水的LSTM循环网络加速方法和系统

    公开(公告)号:CN114418075A

    公开(公告)日:2022-04-29

    申请号:CN202111591419.5

    申请日:2021-12-23

    Abstract: 本发明提出了一种基于软流水的LSTM循环网络加速方法和系统,包括:获取具有权重缓存的AI专用芯片和待处理的时间序列,将待运行的LSTM循环网络模型加载至该AI专用芯片,并将LSTM循环网络模型运行中部分时间无关项加载至该权重缓存,另一部分时间无关项存于硬盘;按顺序将该时间序列中当前时刻t的特征向量Xt,以及前一时刻的隐层输出Ht‑1输入至该AI专用芯片,通过读取位于权重缓存的部分时间无关项,运行与该部分时间无关项相关的该LSTM循环网络模型的同时加载硬盘中该另一部分时间无关项至该权重缓存,当与该部分时间无关项相关的该LSTM循环网络模型运行完毕后,再从权重缓存读取该另一部分时间无关项继续执行该LSTM循环网络模型,得到当前时刻t的隐层输出Ht。

    脉冲神经网络运算芯片及相关运算方法

    公开(公告)号:CN110059812B

    公开(公告)日:2021-09-14

    申请号:CN201910079638.1

    申请日:2019-01-26

    Abstract: 本发明公开了一种脉冲神经网络运算芯片及相关运算方法,该脉冲神经网络运算方法应用于该脉冲神经网络运算芯片,该方法应用于脉冲神经网络,该脉冲神经网络包括时钟神经元,该方法包括:该时钟神经元在第一时间后,以第二时间为间隔发送时钟脉冲;该脉冲神经网络中与该时钟神经元对应的输出神经元根据该时钟脉冲发送输出脉冲。

Patent Agency Ranking