一种图像卷积处理方法和电子设备

    公开(公告)号:CN113495786A

    公开(公告)日:2021-10-12

    申请号:CN202010196706.5

    申请日:2020-03-19

    Inventor: 屠震元 叶挺群

    Abstract: 本申请实施例提供了一种图像卷积处理方法和电子设备,获取待卷积图像和卷积核;判断当前硬件平台的硬件资源,是否满足使用第一目标预设卷积分块方式进行图像卷积处理时对硬件资源的需求;若满足,使用第一目标预设卷积分块方式,对待卷积图像和卷积核进行图像卷积处理;若不满足,根据预先设定的卷积核的个数与卷积分块方式的对应关系,从除第一目标预设卷积分块方式之外的其他预设卷积分块方式中,选择与卷积核的个数对应的第二目标预设卷积分块方式,使用第二目标预设卷积分块方式对待卷积图像和卷积核进行图像卷积处理。本申请实施例中,在多种卷积分块方式中选择目标卷积分块方式,提高了图像卷积处理的效率。

    确定最优计算模板的方法和装置

    公开(公告)号:CN112926168A

    公开(公告)日:2021-06-08

    申请号:CN201911232364.1

    申请日:2019-12-05

    Inventor: 陈良 叶挺群

    Abstract: 本申请公开了一种确定最优计算模板的方法和装置,属于神经网络技术领域。该方法包括:基于目标计算层的张量算式,确定目标计算层对应的各种计算模板,在各种计算模板中,确定满足预设的本设备的硬件限制条件的目标计算模板,基于每种目标计算模板,对张量算式进行编译和模拟运行,并确定每种目标计算模板的运行时间,将运行时间最小的目标计算模板,确定为最优计算模板。本申请通过预先设置本设备的硬件限制条件,在目标计算层对应的各种计算模板中,确定满足预设的本设备的硬件限制条件的目标计算模板,排除了部分不合理组合,避免了不合理组合编译运行的时间的耗费,缩短了时间。

    一种资源调度方法、装置、电子设备及存储介质

    公开(公告)号:CN112148468A

    公开(公告)日:2020-12-29

    申请号:CN201910578725.1

    申请日:2019-06-28

    Inventor: 何猛 叶挺群

    Abstract: 本发明实施例提供了一种资源调度方法、装置、电子设备及存储介质。该方法应用于GPU服务器集群中的调度节点,GPU服务器集群中的各个GPU服务器被划分为第一类服务器和第二类GPU服务器;该资源调度方法包括:获取待处理任务,并根据待处理任务所需的目标GPU资源,确定待处理任务的类型;其中,类型包括:整机任务和碎片任务;当待处理任务的类型为整机任务时,基于目标GPU资源,确定待处理任务所需GPU服务器的数量,将待处理任务分配到数量个第一类服务器中;当待处理任务的类型为碎片任务时,将待处理任务分配到GPU资源满足目标GPU资源的第二类服务器中。应用本发明实施例提供的方案,能够提高待处理任务的处理效率。

    深度学习网络模型的配置方法、装置及存储介质

    公开(公告)号:CN111914985A

    公开(公告)日:2020-11-10

    申请号:CN201910388839.X

    申请日:2019-05-10

    Inventor: 屠震元 叶挺群

    Abstract: 本申请公开了一种深度学习网络模型的配置方法、装置及计算机存储介质,属于深度学习领域。本申请实施例提供的配置方法首先可以获取当前设备的硬件信息,之后根据当前设备的硬件信息,确定深度学习网络模型包括的多层神经网络的输入配置信息,进而根据该深度学习网络模型包括的多层神经网络的输入配置信息和当前设备的硬件信息来为该深度学习网络分配运算资源。这样,即使设备的硬件条件发生了变化,也可以通过本申请提供的配置方法,根据当前设备的硬件信息来为该深度学习网络模型进行配置,也即,本申请提供的配置方法具备通用性。

    一种基于神经网络的调整方法、装置及设备

    公开(公告)号:CN109784481A

    公开(公告)日:2019-05-21

    申请号:CN201711113743.X

    申请日:2017-11-13

    Inventor: 叶挺群

    CPC classification number: G06N3/04 G06N3/06 G06N5/04

    Abstract: 本发明实施例提供了一种基于神经网络的调整方法、装置及设备,方法包括:利用推理引擎的组件,对待调整的神经网络进行多次调整,每次调整后,将输入数据输入至调整后的神经网络,得到输出数据,将每次得到的输出数据进行对比,确定最优次输出数据对应的调整后的神经网络;最优次输出数据对应的调整后的神经网络,也就是最适应该输入数据的神经网络,因此,利用本方案,提高了神经网络对数据的适应性。

    一种深度学习算法的运行与生成方法、装置

    公开(公告)号:CN119227828A

    公开(公告)日:2024-12-31

    申请号:CN202310792920.0

    申请日:2023-06-29

    Abstract: 本申请实施例提供了一种深度学习算法的运行与生成方法、装置,涉及深度学习领域。该方法包括:接收算法模型生成端发送的目标算法的算法模型文件;当算法模型文件为能够被算法模型运行端运行的可执行文件时,基于可执行文件,实现目标算法。应用本发明实施例提供的方案,通过接收算法模型生成端发送的算法模型文件,当算法模型文件为可执行文件时,用户端或边缘端等能力有限的设备只需基于可执行文件,就可以运行算法模型,从而实现目标算法,可以使用户端或边缘端等能力有限的设备实现深度学习算法的运行。

    基于容器技术的异常任务处理方法、服务器及云平台

    公开(公告)号:CN112148420B

    公开(公告)日:2024-04-02

    申请号:CN201910579177.4

    申请日:2019-06-28

    Abstract: 本申请实施例提供了基于容器技术的异常任务处理方法、服务器及云平台,该方法包括:在检测到目标任务容器异常时,挂起目标任务容器;获取目标任务容器对应的目标客户端发送的针对目标任务容器的调试信息;根据调试信息调试目标任务容器中的任务数据;在获取到针对目标任务容器的重启指令时,重启目标任务容器。在本申请实施例的基于容器技术的异常任务处理方法中,当任务容器异常时,不是直接删除该任务容器,则是将该任务容器挂起,同时允许用户对该任务容器进行调试,以提高容器重启之后的正常运行概率,并能省去任务的重新排队和重新调度的过程,提高云平台的工作效率,提升用户体验。

    一种内存分配方法及装置
    20.
    发明公开

    公开(公告)号:CN116991569A

    公开(公告)日:2023-11-03

    申请号:CN202210446682.3

    申请日:2022-04-26

    Abstract: 本申请实施例提供了一种内存分配方法及装置。方案如下:针对目标算子,确定神经网络模型运行过程中该目标算子所需的目标内存大小;确定已为前一个算子分配的多个内存块的当前状态;确定备选内存块集合中包括当前状态为可复用状态的内存块;若备选内存块集合中各内存块的内存大小均小于目标内存大小,且备选内存块集合中各内存块的第一总内存大小大于等于目标内存大小,则从备选内存块集合中选取多个内存块,作为待分配内存块;基于待分配内存块,对目标算子进行内存分配。采用本申请实施例提供的技术方案,降低了神经网络模型的内存占用,从而降低了电子设备的内存消耗,节约了硬件的内存开销,降低设备成本。

Patent Agency Ranking