矢量处理器、数据处理方法及终端设备

    公开(公告)号:CN118277332A

    公开(公告)日:2024-07-02

    申请号:CN202211716438.0

    申请日:2022-12-29

    IPC分类号: G06F15/80 G06F7/498

    摘要: 本申请适用于计算机技术领域,提供了矢量处理器、数据处理方法及终端设备,该矢量处理器包括第一级加法模块和矢量内第二级加法模块;所述第一级加法模块用于控制输入的两个矢量数据中参与第一级加法运算的矢量元素,以及,用于根据所述参与第一级加法运算的矢量元素实现所述两个矢量数据的矢量间的第一级加法以及矢量内的第一级加法,得到对应的矢量间第一级加法结果和矢量内第一级加法结果;所述矢量内第二级加法模块用于对所述矢量内第一级加法结果中的数据进行压缩并累加,得到矢量内第二级加法结果。通过上述矢量处理器能够同时实现矢量间加法和矢量内加法,从而提高系统资源的利用率。

    一种执行神经网络操作的装置、方法和设备

    公开(公告)号:CN117829232A

    公开(公告)日:2024-04-05

    申请号:CN202311867982.X

    申请日:2023-12-29

    IPC分类号: G06N3/063 G06F7/57

    摘要: 本申请提供一种用于执行神经网络操作的装置、方法和设备。本申请提供的装置,包括控制器、包含多个乘加单元的乘加器、综合加法器和累加器;其中,所述控制器,用于根据待处理的第一张量和第二张量的数据类型,选择与所述数据类型匹配的数据处理路径;所述乘加器中的每个乘加单元,用于按照所述数据处理路径对所述第一张量和所述第二张量中相关联的至少一对元素对执行乘加处理,得到乘加结果;所述综合加法器,用于按照所述数据处理路径将所述乘加器输出的多个乘加结果进行相加,得到第二计算结果;所述累加器,用于将所述第二计算结果与输入的累加和进行累加,得到第三计算结果。本申请提供的装置、方法和设备,可以提高输入数据的处理性能。

    卷积计算方法、系统、设备及存储介质

    公开(公告)号:CN113870091A

    公开(公告)日:2021-12-31

    申请号:CN202110997622.6

    申请日:2021-08-27

    IPC分类号: G06T1/60 G06N3/04 G06N3/063

    摘要: 本申请涉及一种卷积计算方法、系统、设备及存储介质。所述方法包括:根据输入图像的缓存单元中的单元存储块的大小和卷积核的大小将输入图像的每个通道按照相同的方式进行划分,得到待处理的子块;将每个待处理的子块以单元存储块为单位存入;其中,对于待处理的子块的每一行数据,以移位截取固定长度的方式分成与所述卷积核的高度数值相同的行数,逐行存入所述单位存储块;对每个待处理的子块,以单次计算容量为限从至少一个所述单元存储块中读取待卷积计算的数据并进行矩阵乘法运算,依次得到输出图像的每一行中对应于待处理的子块的部分。上述卷积计算方法、系统、设备及存储介质实现了降低存储和数据传输带宽需求的卷积计算。

    数据处理方法、装置、电子设备及存储介质

    公开(公告)号:CN118245713A

    公开(公告)日:2024-06-25

    申请号:CN202211669511.3

    申请日:2022-12-23

    发明人: 蒋文 王和国

    IPC分类号: G06F17/15 G06N3/08 G06N3/0464

    摘要: 本申请适用于深度学习技术领域,提供了数据处理方法、装置、电子设备及存储介质,包括:获取待处理数据在各个像素位置上的各个通道的数据,得到各个像素位置所对应的各个通道数据,根据待处理数据的通道数和处理器能够并行运算的通道数确定宽度并行计算量,若宽度并行计算量大于或等于2,则根据待处理数据确定多个第一目标数据,每个第一目标数据通过将待处理数据中的N个像素位置上的通道数据按照该N个像素位置的顺序进行重排得到,对每一个第一目标数据进行并行运算,得到第一目标数据对应的卷积结果,根据各个第一目标数据对应的卷积结果确定待处理数据的卷积结果。本申请可以提高存储利用率和卷积运算效率。

    卷积算子计算装置及方法

    公开(公告)号:CN116756472B

    公开(公告)日:2024-03-29

    申请号:CN202311038579.6

    申请日:2023-08-17

    摘要: 本申请适用于神经网络技术领域,提供了卷积算子计算装置及方法,其中该卷积算子计算装置包括运算模块、数据选择模块和存储模块,该运算模块,用于从存储模块获取第一数据以及从输入模块获取第二数据,然后基于卷积算子的类型对第一数据以及第二数据进行计算得到第三数据。该数据选择模块,用于基于卷积算子的类型确定算子计算结果,以及将算子计算结果发送给存储模块,该算子计算结果为第三数据,或是根据第一数据、第二数据以及第三数据确定的值;该存储模块,用于从数据选择模块获取算子计算结果,以及存储算子计算结果。本申请的方案通过一个装置可以实现不同类型的卷积算子的计算,有利于降低卷积算子计算装置的复杂度。

    数据的循环缓冲存储方法、装置、计算机设备及介质

    公开(公告)号:CN116610258A

    公开(公告)日:2023-08-18

    申请号:CN202310498359.5

    申请日:2023-05-05

    IPC分类号: G06F3/06

    摘要: 本发明涉及数据存储技术领域,尤其涉及一种数据的循环缓冲存储方法、装置、计算机设备及介质,该方法包括获取运算数据量,若握手数据总量小于运算数据量,则向上游写入模块发送握手请求,在接收到握手请求后,使用上游写入模块将握手数据写入存储器,向下游执行模块发送握手指令,在下游执行模块接收到握手指令时,使用下游执行模块读取存储器中的握手数据,对读取到的握手数据进行运算,统计已完成运算的握手数据的可释放数据量,在可释放数据量大于预备释放数据量时,将在先存储的握手数据清除,通过寄存器结合运算数据量进行数据的循环写入和读取的控制,在保证下游任务执行的同时,提高存储空间的利用率,进而提高数据的存储效率。

    芯片系统中的数据传输处理方法及相关装置

    公开(公告)号:CN114328623A

    公开(公告)日:2022-04-12

    申请号:CN202111633371.X

    申请日:2021-12-28

    摘要: 本申请实施例提供了一种芯片系统中的数据传输处理方法及相关装置,该方法包括:源子芯片接收配置参数,并根据该配置参数配置预设的流输出表;该流输出表包括数据流的标识和该数据流的目的子芯片的标识;该源子芯片和该目的子芯片为芯片系统包括的多个子芯片中的子芯片,该多个子芯片以预设的拓扑结构连接;该源子芯片执行第一数据处理任务得到输出数据;该源子芯片基于该流输出表将该输出数据生成多个数据包并发送,该数据包中包括该数据流的标识和该目的子芯片的标识。本申请能够实现芯片系统中子芯片之间的高效数据传输,提高芯片系统的处理性能。

    对接TVM的方法及相关设备
    8.
    发明公开

    公开(公告)号:CN112527272A

    公开(公告)日:2021-03-19

    申请号:CN202011565749.2

    申请日:2020-12-25

    IPC分类号: G06F8/30 G06F8/34

    摘要: 本申请实施例提供一种对接TVM的方法及相关设备,该方法包括:采用TVM根据目标模型生成第一计算图,其中,所述目标模型用于芯片开发;根据所述第一计算图生成第二计算图,其中,所述第二计算图的结构为所述芯片开发使用的计算图结构,所述第二计算图为芯片开发环境的输入。采用本申请实施例,能够减少TVM引入对芯片开发环境的运算资源需求,提升运行速率,减少芯片开发环境的运行时间。

    一种芯片控制方法、装置、人工智能芯片及终端设备

    公开(公告)号:CN112214315A

    公开(公告)日:2021-01-12

    申请号:CN202011013518.0

    申请日:2020-09-23

    IPC分类号: G06F9/50

    摘要: 本申请属于人工智能芯片技术领域,尤其涉及一种芯片控制方法、装置、人工智能芯片及终端设备。所述方法应用于人工智能芯片中,所述方法包括:获取待处理的神经网络模型计算任务;将所述神经网络模型计算任务按照执行顺序依次分解为第一子任务、第二子任务和第三子任务;执行所述第一子任务;在所述第一子任务的执行过程中,逐步提升芯片功耗,直至达到预设的峰值功耗;执行所述第二子任务;在所述第二子任务的执行过程中,保持所述峰值功耗;执行所述第三子任务;在所述第三子任务的执行过程中,逐步降低芯片功耗,直至所述神经网络模型计算任务执行结束。通过本申请,使得人工智能芯片在启动工作及结束工作的时候均可正常工作。

    图像处理方法、装置、电子设备及计算机可读存储介质

    公开(公告)号:CN111932437A

    公开(公告)日:2020-11-13

    申请号:CN202011076833.8

    申请日:2020-10-10

    IPC分类号: G06T1/20 G06N3/04

    摘要: 本申请适用于数据处理技术领域,提供了一种图像处理方法、装置、电子设备及计算机可读存储介质。在本申请提供的方法中,根据预设拆分方式对反卷积核进行拆分,得到子卷积核。然后,根据子卷积核的参数及图像特征矩阵,确定子卷积核对应的原始子矩阵,并用子卷积核对相应的原始子矩阵进行卷积计算,得到各个子卷积核对应的反卷积子矩阵。之后,根据各个子卷积核对应的反卷积子矩阵确定目标特征矩阵。通过上述方法进行反卷积计算时,图像特征矩阵无需进行井字填充,可以减少反卷积计算过程中占用的存储空间。并且,由于没有井字填充的0参与反卷积计算,可以极大地减少计算量,提高反卷积计算的运算效率。