-
公开(公告)号:CN114021708A
公开(公告)日:2022-02-08
申请号:CN202111165135.X
申请日:2021-09-30
Applicant: 浪潮电子信息产业股份有限公司
Abstract: 本申请公开了一种数据处理方法、装置、系统、电子设备及计算机可读存储介质,该方法包括:获取设置指令,并根据设置指令设置计算网络;设置指令用于设置计算网络中各个计算核之间的数据流向;获取至少一个特征值,并将至少一个特征值分别输入计算网络中的至少一个起始计算核;以起始计算核为起点,按照数据流向传输特征值;利用各个计算核,基于特征值和对应的权重值生成计算结果;该方法通过设置指令设置计算网络中各个计算核之间的数据流向,使得数据在不同级之间流动,或者在同级之间流动,使得整个计算网络无论在处理什么形状的网络模型时,都能够被百分百全面利用。
-
公开(公告)号:CN110516332B
公开(公告)日:2021-06-11
申请号:CN201910755046.7
申请日:2019-08-15
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F30/34
Abstract: 本发明公开了一种并行计算结果的过滤方法及系统,通过同时生成每个分片的第一有效位置fvp的输入值,并同时以每一个分片各自对应的第一有效位置fvp输入值计算得到每个第一有效位置fvp的输入值对应的输出结果,并根据第一个分片的第一有效位置fvp输出结果,依次选择第二到S个分片的输出结果的方式、对并行计算结果进行过滤,最终得到正确的并行计算结果。本发明的采用并行过滤的方式,让本来串行的过滤计算改为S个分片的并行计算,计算时间只有原来的S分之一,提高计算效率的同时能够满足并行计算的时序需求。
-
公开(公告)号:CN110516790B
公开(公告)日:2023-08-22
申请号:CN201910760810.X
申请日:2019-08-16
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06N3/0464 , G06N3/063 , G06N3/08
Abstract: 本发明公开了一种卷积网络加速方法、装置及系统,包括获取预先存储的固定长度指令集,固定长度指令集为预先基于待处理卷积网络的结构和参数信息建立的;固定长度指令集中包括多个固定长度赋值指令和固定长度操作指令,每个固定长度赋值指令和每个固定长度操作指令分别对应至少一个寄存器;依据与固定长度赋值指令对应的寄存器值对相应的固定长度操作指令的寄存器进行赋值,以便依据寄存器的寄存器值确定相应的指令参数;固定长度赋值指令对应的寄存器值为依据卷积网络的参数信息确定的;依据与固定长度操作指令对应的寄存器值获取相应的指令参数,并根据指令参数执行相应的操作;本发明节约内存、使用灵活性强、编译和映射的效率高、难度低。
-
公开(公告)号:CN114140618A
公开(公告)日:2022-03-04
申请号:CN202111276841.1
申请日:2021-10-29
Applicant: 浪潮电子信息产业股份有限公司
Abstract: 本申请公开了一种卷积特征缓存方法、装置、电子设备及计算机可读存储介质,该方法包括:获取多个卷积特征,并将卷积特征写入缓存空间;其中,缓存空间包括多个缓存单元,各个缓存单元呈二维矩阵排布,每个缓存单元用于存储一个卷积特征;若检测到缓存空间被读取,则按照横向循环方向,对各个矩阵行中的卷积特征进行横向偏移;若检测到横向偏移次数处于第一区间,则按照纵向循环方向,对各个矩阵列中的卷积特征进行纵向偏移,并将横向偏移次数清零;若检测到纵向偏移次数处于第二区间,则确定数据调用完毕;可以无需频繁地从外部存储介质中获取卷积特征,一次缓存较多卷积特征,并将其最大化利用,高效地提供大量用于卷积计算的卷积特征。
-
公开(公告)号:CN110673786B
公开(公告)日:2020-11-10
申请号:CN201910827022.8
申请日:2019-09-03
Applicant: 浪潮电子信息产业股份有限公司
Abstract: 本发明提供一种数据缓存方法和装置,逐个获取输出矩阵,按照获取各个输出矩阵的先后顺序,将获取的多个输出矩阵交替的写入第一缓存单元的两个队列集合中,并且逐个将第一缓存单元中分行存储的输出矩阵写入第二缓存单元,按写入第二缓存单元的顺序,根据预设的参数逐个确定第二缓存单元的每个输出矩阵的有效数据,并将每个输出矩阵的有效数据写入第三缓存单元,第三缓存单元保存的输出矩阵的有效数据用于根据写入第三缓存单元的先后顺序依次写入到内存中。本方案利用写入速度与处理器计算速度匹配的缓存单元缓存输出矩阵,并将输出矩阵按生成时间的先后逐个完整的写入内存中。因此本发明能够解决处理器的计算速度与内存写入速度不匹配的问题。
-
公开(公告)号:CN111723906A
公开(公告)日:2020-09-29
申请号:CN202010476888.1
申请日:2020-05-29
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06N3/04
Abstract: 本申请提供一种循环神经网络的加速计算方法,包括:获取所述循环神经网络的参数矩阵乘式;对所述参数矩阵乘式中的乘数和被乘数进行分割,得到二维矩阵;将所述二维矩阵按照预设顺序输入至三维脉动阵列;根据所述三维脉动阵列确定所述参数矩阵乘式的输出结果。本申请大大缩短了大尺寸矩阵相乘的计算时间,缩减了计算所需的硬件资源。本申请还提供一种循环神经网络的加速计算系统、计算机可读存储介质和终端,具有上述有益效果。
-
公开(公告)号:CN111722799B
公开(公告)日:2024-02-09
申请号:CN202010469856.9
申请日:2020-05-28
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F3/06
Abstract: 本发明公开了一种数据存储方法、装置、设备及可读存储介质,该方法包括:在易失性存储器上电后,获取待存入易失性存储器中固定存储地址的目标数据;从比特值变化传输模式和比特值固定传输模式中,确定出目标传输模式;目标传输模式与易失性存储器上一次上电后所确定出的历史传输模式不同;按照目标传输模式,与易失性存储器互传目标数据。该方法可保证目标数据在掉电后,避免发生数据被盗取,保障了数据的安全。
-
公开(公告)号:CN110533165B
公开(公告)日:2022-05-17
申请号:CN201910760134.6
申请日:2019-08-16
Applicant: 浪潮电子信息产业股份有限公司
Abstract: 本发明公开了一种图像处理方法,由于本发明中对于通过饱和映射法得到的第一量化阈值以及通过非饱和映射法得到的第二量化阈值进行了加权计算,相当于对两个量化阈值进行了融合,得到的最佳量化阈值可以适用于大多数的激活输出层,因此也就能够更加有效的保留激活输出层的有效信息,并用于后续的图像处理工作,提高了量化后的深度神经网络在低位宽硬件平台上,进行推理计算的精度。本发明还公开了一种图像处理装置及设备,具有如上图像处理方法相同的有益效果。
-
公开(公告)号:CN111722799A
公开(公告)日:2020-09-29
申请号:CN202010469856.9
申请日:2020-05-28
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F3/06
Abstract: 本发明公开了一种数据存储方法、装置、设备及可读存储介质,该方法包括:在易失性存储器上电后,获取待存入易失性存储器中固定存储地址的目标数据;从比特值变化传输模式和比特值固定传输模式中,确定出目标传输模式;目标传输模式与易失性存储器上一次上电后所确定出的历史传输模式不同;按照目标传输模式,与易失性存储器互传目标数据。该方法可保证目标数据在掉电后,避免发生数据被盗取,保障了数据的安全。
-
公开(公告)号:CN110533165A
公开(公告)日:2019-12-03
申请号:CN201910760134.6
申请日:2019-08-16
Applicant: 浪潮电子信息产业股份有限公司
Abstract: 本发明公开了一种图像处理方法,由于本发明中对于通过饱和映射法得到的第一量化阈值以及通过非饱和映射法得到的第二量化阈值进行了加权计算,相当于对两个量化阈值进行了融合,得到的最佳量化阈值可以适用于大多数的激活输出层,因此也就能够更加有效的保留激活输出层的有效信息,并用于后续的图像处理工作,提高了量化后的深度神经网络在低位宽硬件平台上,进行推理计算的精度。本发明还公开了一种图像处理装置及设备,具有如上图像处理方法相同的有益效果。
-
-
-
-
-
-
-
-
-