图像数据存储方法、图像数据处理方法、系统及相关装置

    公开(公告)号:CN111583095B

    公开(公告)日:2022-03-22

    申请号:CN202010442519.0

    申请日:2020-05-22

    Abstract: 本申请公开了一种图像数据处理方法,所述图像数据处理方法包括:将图像数据按照预设存储格式依次存储至动态随机存储器,以使所述动态随机存储器中相邻的所述图像数据具有连续的存储地址;从所述动态随机存储器中读取预设数量的多通道并行的图像数据,并将所述多通道并行的图像数据存储至FPGA的先进先出存储器;对所述先进先出存储器中的所述目标图像数据执行卷积操作,得到图像特征数据。本申请能够提高了图像数据的处理速率。本申请还公开了一种图像数据存储方法、一种图像数据处理系统、一种电子设备及一种存储介质,具有以上有益效果。

    一种模型训练设备、方法、系统及计算机可读存储介质

    公开(公告)号:CN111723907A

    公开(公告)日:2020-09-29

    申请号:CN202010529654.9

    申请日:2020-06-11

    Abstract: 本申请公开了一种模型训练设备、方法、系统及计算机可读存储介质,设备包括高带宽存储器组,用于存储待训练数据;全局存储器,用于存储目标模型的模型参数;与高带宽存储器组及全局存储器连接的处理器,用于基于目标模型的训练算法对待训练数据和全局存储器中存储的初始模型参数进行运算,得到目标模型参数并存储至全局存储器;且处理器基于片上网络搭建。本申请中,由于高带宽存储器的存储容量较大,所以可以存储较多的待训练数据,降低对高带宽存储器的读写次数,并且处理器基于片上网络搭建,所以处理器可以借助片上网络在自身内部传输相应数据,降低了对待传输数据的读写频率,与现有技术相比,可以提高模型的训练效率。

    图像数据存储方法、图像数据处理方法、系统及相关装置

    公开(公告)号:CN111583095A

    公开(公告)日:2020-08-25

    申请号:CN202010442519.0

    申请日:2020-05-22

    Abstract: 本申请公开了一种图像数据处理方法,所述图像数据处理方法包括:将图像数据按照预设存储格式依次存储至动态随机存储器,以使所述动态随机存储器中相邻的所述图像数据具有连续的存储地址;从所述动态随机存储器中读取预设数量的多通道并行的图像数据,并将所述多通道并行的图像数据存储至FPGA的先进先出存储器;对所述先进先出存储器中的所述目标图像数据执行卷积操作,得到图像特征数据。本申请能够提高了图像数据的处理速率。本申请还公开了一种图像数据存储方法、一种图像数据处理系统、一种电子设备及一种存储介质,具有以上有益效果。

    一种图像目标检测方法、系统、电子设备及存储介质

    公开(公告)号:CN110781819A

    公开(公告)日:2020-02-11

    申请号:CN201911025107.0

    申请日:2019-10-25

    Abstract: 本申请公开了一种图像目标检测方法,应用于异构平台的并行处理芯片,所述图像目标检测方法包括:接收卷积神经网络对图像进行目标识别得到的多个目标对象边界框的边界框信息;将边界框信息存储至随机存取存储器RAM;对读取的边界框信息多路并行执行基于非极大值抑制算法的局部最大搜索操作,得到预设数量的待输出边界框;将待输出边界框的边界框信息传输至异构平台的中央处理器CPU,以便中央处理器CPU输出图像目标检测结果。本申请能够减少图像目标检测过程中并行处理芯片与CPU的通信数据量,提高图像目标检测的效率。本申请还公开了一种图像目标检测系统、一种电子设备及一种存储介质,具有以上有益效果。

    卷积神经网络模型同步训练方法、集群及可读存储介质

    公开(公告)号:CN110705705A

    公开(公告)日:2020-01-17

    申请号:CN201910912956.1

    申请日:2019-09-25

    Abstract: 本申请公开了一种卷积神经网络模型同步训练方法、集群及可读存储介质,在本方法中,在训练卷积神经网络时,则按照训练数据量向各个GPU分配训练样本。各个GPU按照被分配的训练数据量对同一个卷积神经网络的训练耗时之间的差异得到缩小,各个GPU之间训练等待时间可缩短,训练效率得到提升。与此同时,在本方法中,用于训练卷积神经网络的GPU的型号可不同,因而可减少闲置GPU,可降低硬件成本。

    一种数据处理系统、方法及介质

    公开(公告)号:CN110516799A

    公开(公告)日:2019-11-29

    申请号:CN201910760143.5

    申请日:2019-08-16

    Abstract: 本申请公开了一种数据处理系统、方法及介质,包括卷积运算模块,卷积运算模块包括第一寄存器组、第二寄存器组以及与第一寄存器组和第二寄存器组连接的运算器;第一寄存器组用于获取待处理数据中的本轮待卷积数据,将获取到的本轮待卷积数据传输至运算器,并且在运算器进行本轮卷积运算的过程中,如果待处理数据还未处理完毕,则获取待处理数据中的下一轮待卷积数据并传输至运算器;第二寄存器组用于获取卷积核数据,并将当前获取到的卷积核数据传输至运算器;运算器用于获取所述第一寄存器组传输的每轮待卷积数据,以及获取第二寄存器组传输的卷积核数据,并对获取到的每轮待卷积数据和卷积核数据分别进行卷积运算,以得到相应的卷积运算结果。

    一种数据处理方法、装置、系统、电子设备及存储介质

    公开(公告)号:CN114021708B

    公开(公告)日:2023-08-01

    申请号:CN202111165135.X

    申请日:2021-09-30

    Abstract: 本申请公开了一种数据处理方法、装置、系统、电子设备及计算机可读存储介质,该方法包括:获取设置指令,并根据设置指令设置计算网络;设置指令用于设置计算网络中各个计算核之间的数据流向;获取至少一个特征值,并将至少一个特征值分别输入计算网络中的至少一个起始计算核;以起始计算核为起点,按照数据流向传输特征值;利用各个计算核,基于特征值和对应的权重值生成计算结果;该方法通过设置指令设置计算网络中各个计算核之间的数据流向,使得数据在不同级之间流动,或者在同级之间流动,使得整个计算网络无论在处理什么形状的网络模型时,都能够被百分百全面利用。

    一种模型训练设备、方法、系统及计算机可读存储介质

    公开(公告)号:CN111723907B

    公开(公告)日:2023-02-24

    申请号:CN202010529654.9

    申请日:2020-06-11

    Abstract: 本申请公开了一种模型训练设备、方法、系统及计算机可读存储介质,设备包括高带宽存储器组,用于存储待训练数据;全局存储器,用于存储目标模型的模型参数;与高带宽存储器组及全局存储器连接的处理器,用于基于目标模型的训练算法对待训练数据和全局存储器中存储的初始模型参数进行运算,得到目标模型参数并存储至全局存储器;且处理器基于片上网络搭建。本申请中,由于高带宽存储器的存储容量较大,所以可以存储较多的待训练数据,降低对高带宽存储器的读写次数,并且处理器基于片上网络搭建,所以处理器可以借助片上网络在自身内部传输相应数据,降低了对待传输数据的读写频率,与现有技术相比,可以提高模型的训练效率。

    卷积神经网络模型同步训练方法、集群及可读存储介质

    公开(公告)号:CN110705705B

    公开(公告)日:2022-04-22

    申请号:CN201910912956.1

    申请日:2019-09-25

    Abstract: 本申请公开了一种卷积神经网络模型同步训练方法、集群及可读存储介质,在本方法中,在训练卷积神经网络时,则按照训练数据量向各个GPU分配训练样本。各个GPU按照被分配的训练数据量对同一个卷积神经网络的训练耗时之间的差异得到缩小,各个GPU之间训练等待时间可缩短,训练效率得到提升。与此同时,在本方法中,用于训练卷积神经网络的GPU的型号可不同,因而可减少闲置GPU,可降低硬件成本。

Patent Agency Ranking