一种神经元计算方法
    1.
    发明授权

    公开(公告)号:CN114819115B

    公开(公告)日:2024-11-05

    申请号:CN202210498960.X

    申请日:2022-05-09

    IPC分类号: G06N3/06 G06N3/0464 G06N3/049

    摘要: 本发明涉及神经元计算领域,尤其涉及一种神经元计算方法。所述方法是指神经元在时间间隔t内,对多个输入神经元膜电位Vin(t1)和输入神经元脉冲Pin(t1)进行计算,更新神经元状态,并发送输出神经元膜电位Vout(t2)和输出神经元脉冲Pout(t2);时间间隔t的单位时间是Δt;时间间隔的起始时刻被记为t1=n1*Δt,终止时刻被记为t2=n2*Δt;时间间隔t=n*Δt,n=n2‑n1;包括以下步骤:t1时刻,获取输入数据;时间间隔t内,对输入数据执行整合或抑制运算;时间间隔t内,执行膜电位累加运算;时间间隔t内,执行膜电位激活运算;t2时刻,更新神经元状态并输出数据。本发明的神经元计算方法具备更好的通用性,从而实现更通用的神经网络计算系统。

    一种数据流水线处理器系统

    公开(公告)号:CN112052042B

    公开(公告)日:2023-08-15

    申请号:CN202010967991.6

    申请日:2020-09-15

    IPC分类号: G06F9/38 G06N3/02

    摘要: 本发明涉及人工智能计算领域,更具体地,涉及一种数据流水线处理器系统,用于提高单位时钟周期内数据处理量以及计算资源的利用率从而提高计算效率。所述的数据流水线处理器系统包括至少两个数据流水线计算路径、参数路径、数据路径、配置控制器;所述数据路径以及参数路径为至少两个数据流水线计算路径分别提供数据和参数;至少两个数据流水线计算路径对数据路径以及参数路径分别提供的数据和参数进行运算后,输出最终计算结果;配置控制器与参数路径、数据路径以及数据流水线计算路径连接,用于获取配置信息后对树状参数路径、线性参数路径以及非线性参数路径、数据路径以及数据流水线计算路径进行配置。

    用于神经网络张量处理器的稀疏数据压缩装置及方法

    公开(公告)号:CN115936101A

    公开(公告)日:2023-04-07

    申请号:CN202211618646.7

    申请日:2022-12-15

    摘要: 本发明涉及神经网络张量处理器领域,特别是一种用于神经网络张量处理器的稀疏数据压缩装置及方法。所述方法包括:读取压缩操作的配置数据并配置稀疏数据压缩装置的各模块;根据配置信息,读取稀疏数据;判断并标记稀疏特征点;删除稀疏特征点数据,生成稀疏压缩数据和稀疏映射表;写出稀疏压缩数据;写出稀疏映射表。本方法通过遍历稀疏数据、判断和标记稀疏特征点、删除稀疏特征点并构建稀疏映射表的方式,可以高效的实现稀疏数据的0数据删除和数据重排操作,从而高效实现稀疏数据的压缩,具有压缩计算复杂性低、效率高的优点。

    一种面向通用神经网络张量处理器的统一计算方法

    公开(公告)号:CN114970845A

    公开(公告)日:2022-08-30

    申请号:CN202210031626.3

    申请日:2022-01-12

    IPC分类号: G06N3/063 G06N3/08 G06F9/38

    摘要: 本发明公开了一种面向通用神经网络张量处理器的统一计算方法,在统一的环境与方法下同时实现指令计算与算子计算,把神经网络算法与应用的内容全部以算子的形式进行表达,其中,所述神经网络算法相关的计算以神经网络算子形式来表达,神经网络应用相关的计算以自定义指令算子的形式来表达。本发明的统一计算方法,可以在通用神经网络张量处理器中同时执行算子与指令,使得系统既具备数据处理器的高性能、低能耗特性,又具备指令处理器的通用灵活性。

    用于FP16浮点数据和INT8整型数据运算的混合精度运算器

    公开(公告)号:CN112860218A

    公开(公告)日:2021-05-28

    申请号:CN202110167212.9

    申请日:2021-02-07

    IPC分类号: G06F7/483 G06F7/575

    摘要: 本发明公开了一种用于FP16浮点数据和INT8整型数据运算的混合精度运算器,包括精度转换模块、运算单元、两个输入数据和一个、两个或四个输出数据;输入数据和输出数据采用EM16格式表达,EM16格式表达为16位数,包括FP16浮点表达、INT8整型表达和INT8双整型表达;两个输入数据分别为神经网络计算中的特征数据和参数数据;精度转换模块用于根据外部配置信息执行特征数据的在EM16格式各表达之间的精度转换;运算单元用于根据外部配置信息执行同为FP16浮点数据或同为INT8整型数据的两数据之间加法运算或乘法运算。本发明的混合精度运算器可以在计算过程中混合使用FP16浮点数据和INT8整型数据,使得该混合精度计算可以在神经网络计算任务中既拥有FP16的精度,又可以拥有INT8的速度。

    用于浮点数据、张量数据运算的运算器

    公开(公告)号:CN112416295B

    公开(公告)日:2024-02-02

    申请号:CN202011427161.0

    申请日:2020-12-09

    IPC分类号: G06F7/487

    摘要: 本发明公开了一种用于浮点数据、张量数据运算的运算器,其中用于张量数据运算的运算器包括两个输入张量数据及其共享E值和一个输出张量数据及其共享E值,其中,所述张量数据的每个数用EF16数据格式的S+F表示,其中S为EF16数据的符号值,F为EF16数据的小数值;所述张量数据的共享E值为EF16数据的指数值;所述EF16数据的数值表示公式为:(‑1)signbit×2(‑exp onent)×fraction,其中,signbit为符号值;exp onent为指数值;fraction为小数值。所述运算器在执行乘法、加法等运算时,两个输入张量数据的S+F部分和共享E值部分无需进行数据转换,即可分别执行相乘或相加,可以有效简化张量数据的运算,提高张量数据的计算效率。

    面向通用张量处理器的算子并行分割方法及系统

    公开(公告)号:CN117077744A

    公开(公告)日:2023-11-17

    申请号:CN202311052377.7

    申请日:2023-08-21

    摘要: 本发明提出了一种面向通用张量处理器的算子并行分割方法及系统,包括:计算获得算子输出形状;根据算子输出形状分别获取每个维度形状的因数集合;获取算子在TPU中运行时间最短的分割方案,分割方案为因数集合的元素组合,分割方案的总数为因数集合的大小乘积,运行时间的计算表达式为:运行时间=输入读取时间+权重读取时间+计算时间+输出写入时间,输入读取时间的计算以子算子输入大小作为变量,子算子输入大小通过分析神经网络的依赖关系获得;预设解空间阈值,若分割方案的总数不大于解空间阈值,采用枚举算法找出最优分割方案;若大于,则采用启发式算法找出最优分割方案。本发明能够实现基于TPU的神经网络算法自动并行化方案。

    用于神经网络张量处理器的稀疏数据解压缩装置及方法

    公开(公告)号:CN115936102A

    公开(公告)日:2023-04-07

    申请号:CN202211618647.1

    申请日:2022-12-15

    摘要: 本发明涉及神经网络张量处理器领域,公开了一种用于神经网络张量处理器的稀疏数据解压缩装置和方法。所述方法包括:读取解压缩操作的配置数据,并配置稀疏数据解压缩装置的各模块;根据配置信息,读取稀疏映射表:根据配置信息和稀疏映射表,读取稀疏压缩数据;解压缩,生成稀疏数据;写出稀疏数据。本发明提出的稀疏压缩数据把0维全部16个数据的值都为0的情况表达为可被解压缩填充的稀疏特征点,并通过稀疏映射表来发达稀疏特征点的分布情况。通过遍历稀疏映射表的方式可以直接识别稀疏特征点,通过在稀疏特征点填0并插入写出的方式,可以高效实现稀疏数据的解压缩,具有解压缩计算复杂性低、效率高的优点。