-
公开(公告)号:CN116976410A
公开(公告)日:2023-10-31
申请号:CN202210383329.5
申请日:2022-04-13
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/063 , G06N3/0464 , G06N3/045 , G06F17/16
Abstract: 本申请公开了一种神经网络模型部署方法、装置、设备及可读存储介质,该方法包括步骤:获取第一神经网络模型,其中,所述第一神经网络模型中的第一算子用于矩阵乘法操作,所述第一算子无法通过目标NPU进行推理;将所述第一算子替换为第二算子,得到第二神经网络模型,其中,所述第二算子的运算结果与所述第一算子的运算结果一致,且所述第二算子能够通过所述目标NPU进行推理;将所述第二神经网络模型部署至所述目标NPU。本申请扩大了目标NPU所能推理的网络的网络类型范围。
-
公开(公告)号:CN116954640A
公开(公告)日:2023-10-27
申请号:CN202210325242.2
申请日:2022-03-30
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06F8/65 , G06F8/658 , G06N3/0464 , G06N3/0495 , G06N3/08 , G06V40/16 , G06V10/82 , G10L25/30
Abstract: 本发明实施例提供了一种模型更新方法、装置及电子设备。其中,所述方法包括:获取服务器发送的中间格式数据和位置信息,所述中间格式数据用于表示第二模型,所述第二模型为所述服务器对所述第一模型进行训练得到的,所述位置信息用于表示所述中间格式数据的参数区的位置,所述参数区用于记录模型参数;根据所述位置信息,读取所述中间格式数据的参数区记录的模型参数,作为目标模型参数;根据所述目标模型参数,更新所述第一可执行格式数据的参数区,得到第二可执行格式数据,其中,所述第二可执行格式数据的参数区记录的模型参数为所述目标模型参数。可以降低模型更新对于端侧设备的硬件性能的要求。
-
公开(公告)号:CN110717574A
公开(公告)日:2020-01-21
申请号:CN201810757736.1
申请日:2018-07-11
Applicant: 杭州海康威视数字技术股份有限公司
Inventor: 丁健
Abstract: 本发明实施例提供了一种神经网络运行方法、装置及异构智能芯片,其中,神经网络运行方法包括:获取待运行的神经网络;对神经网络进行网络层划分,得到该神经网络的多个待运行层;针对各待运行层,确定满足预设运行条件的计算核心,以使各计算核心按照预设运行顺序运行各待运行层。通过本方案,可以提升神经网络的运行效率。
-
公开(公告)号:CN116258169A
公开(公告)日:2023-06-13
申请号:CN202111490435.5
申请日:2021-12-08
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/0464 , G06N3/08 , G06F18/23213
Abstract: 本申请实施例提供了一种网络模型压缩方法、装置及存储介质,涉及深度学习技术领域,按照预设的压缩顺序,从网络模型中确定当前待压缩的网络层;针对每一预设压缩方式,按照该预设压缩方式对当前待压缩的网络层进行压缩,得到该预设压缩方式对应的压缩后的网络模型;其中,在压缩后的网络模型中,其他网络层为分别按照各自已确定的最优压缩方式进行压缩得到的;按照对应的压缩后的网络模型的准确度和/或压缩率,从各预设压缩方式中确定当前待压缩的网络层的最优压缩方式,并返回执行按照预设的压缩顺序,从各网络层中确定当前待压缩的网络层步骤,直至确定出各网络层的最优压缩方式。基于此,能够提高压缩效果。
-
公开(公告)号:CN116861981A
公开(公告)日:2023-10-10
申请号:CN202210286015.3
申请日:2022-03-22
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/082 , G06N3/0464 , G06N3/0495 , G06N5/04 , G06V10/70 , G06V10/82 , G06V10/20 , G06V10/774
Abstract: 本发明实施例提供了一种模型训练方法、装置及电子设备。其中,所述方法包括:获取目标模型预期部署的目标平台的量化模式;按照所述量化模式通过所述目标模型对样本数据进行量化推理,得到推理结果;根据所述推理结果调整所述目标模型。可以在训练模型时加入目标平台的量化模式,以使得训练得到的模型在该量化模式下能够准确地输出推理结果,因此在将经过训练的模型属于目标平台后,目标平台能够通过该模型正常提供推理服务,降低需要重新训练模型的概率,即提高了模型部署效率。
-
公开(公告)号:CN116452902A
公开(公告)日:2023-07-18
申请号:CN202111656461.0
申请日:2021-12-31
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06V10/774 , G06N5/04
Abstract: 本申请实施例提供了一种模型生成、图像处理方法、装置及电子设备。方案如下:获取第一图像;从图像处理设备的预设分辨率区间中选取多个分辨率,作为第一分辨率;针对每一第一分辨率,根据第一图像对该第一分辨率对应的第一深度学习模型进行推理,得到该第一分辨率对应第一深度学习模型的推理结果;根据每一第一分辨率对应第一深度学习模型的推理结果的准确度,将准确度最高的预设数量个第一深度学习模型所对应的第一分辨率,确定为图像处理设备的最优分辨率;根据每一最优分辨率对应的第一深度学习模型,生成图像处理设备的第二深度学习模型。通过本申请实施例提供的技术方案,增加了深度学习模型所支持的分辨率,提高了图像处理结果的准确性。
-
公开(公告)号:CN110717574B
公开(公告)日:2023-07-07
申请号:CN201810757736.1
申请日:2018-07-11
Applicant: 杭州海康威视数字技术股份有限公司
Inventor: 丁健
IPC: G06N3/0464 , G06N3/063
Abstract: 本发明实施例提供了一种神经网络运行方法、装置及异构智能芯片,其中,神经网络运行方法包括:获取待运行的神经网络;对神经网络进行网络层划分,得到该神经网络的多个待运行层;针对各待运行层,确定满足预设运行条件的计算核心,以使各计算核心按照预设运行顺序运行各待运行层。通过本方案,可以提升神经网络的运行效率。
-
公开(公告)号:CN116991569A
公开(公告)日:2023-11-03
申请号:CN202210446682.3
申请日:2022-04-26
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本申请实施例提供了一种内存分配方法及装置。方案如下:针对目标算子,确定神经网络模型运行过程中该目标算子所需的目标内存大小;确定已为前一个算子分配的多个内存块的当前状态;确定备选内存块集合中包括当前状态为可复用状态的内存块;若备选内存块集合中各内存块的内存大小均小于目标内存大小,且备选内存块集合中各内存块的第一总内存大小大于等于目标内存大小,则从备选内存块集合中选取多个内存块,作为待分配内存块;基于待分配内存块,对目标算子进行内存分配。采用本申请实施例提供的技术方案,降低了神经网络模型的内存占用,从而降低了电子设备的内存消耗,节约了硬件的内存开销,降低设备成本。
-
-
-
-
-
-
-