-
公开(公告)号:CN117540773A
公开(公告)日:2024-02-09
申请号:CN202210892346.1
申请日:2022-07-27
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/0464 , G06N3/082 , G06V10/82 , G06V10/774 , G06V10/94
Abstract: 本申请提供一种任务处理方法、装置、电子设备及图像处理系统,该方法包括:获取目标卷积神经网络的拓扑结构;所述拓扑结构包括计算层的类型,以及,计算层之间的连接关系;依据所述目标卷积神经网络中各计算层的类型,以及,计算层之间的连接关系,对所述目标卷积神经网络的计算层的输出类型进行设置,并在第二类型计算层与其输出直连的第一类型计算层之间添加类型转换节点;在所述目标卷积神经网络训练完成的情况下,利用训练好的目标卷积神经网络进行任务处理。该方法可以提高利用卷积神经网络进行任务处理的处理效率。
-
公开(公告)号:CN112905181B
公开(公告)日:2023-10-10
申请号:CN201911226498.2
申请日:2019-12-04
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本申请实施例提供了一种模型编译、运行方法及装置,涉及人工智能技术领域,方法包括:获得待编译模型的输入数据的多个尺寸;基于多个尺寸对待编译模型进行编译,获得待编译模型处理多个尺寸中每一尺寸的输入数据使用的模型参数和待编译模型处理每一尺寸的输入数据使用的计算指令;对各个尺寸对应的模型参数之间取值相同的参数进行合并,得到合并模型参数,并确定合并模型参数中各个参数与各个尺寸的对应关系;生成包含多个尺寸对应的计算指令、合并模型参数和对应关系的编译后模型。应用本申请实施例提供的方案对待编译模型进行编译,可以降低生成的编译后模型对存储资源和运行资源的需求。
-
公开(公告)号:CN112990421B
公开(公告)日:2023-09-05
申请号:CN201911215315.7
申请日:2019-12-02
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/0464 , G06N3/082
Abstract: 本申请公开了一种优化深度学习网络的运行过程的方法、装置及存储介质,属于深度学习领域。在本申请中,确定深度学习网络中包括的多个计算层对应的多种运行顺序,然后确定每种运行顺序所需的内存开销,进而根据每种运行顺序所需的内存开销,确定多个计算层的最优运行顺序。由于多个计算层的最优运行顺序是通过不同的运行顺序所需的内存开销来进行确定的,因此,根据最优运行顺序来运行深度学习网络,可以有效地减少深度学习网络的内存开销,也即可以使内存优化的效果更加显著。
-
公开(公告)号:CN112990421A
公开(公告)日:2021-06-18
申请号:CN201911215315.7
申请日:2019-12-02
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本申请公开了一种优化深度学习网络的运行过程的方法、装置及存储介质,属于深度学习领域。在本申请中,确定深度学习网络中包括的多个计算层对应的多种运行顺序,然后确定每种运行顺序所需的内存开销,进而根据每种运行顺序所需的内存开销,确定多个计算层的最优运行顺序。由于多个计算层的最优运行顺序是通过不同的运行顺序所需的内存开销来进行确定的,因此,根据最优运行顺序来运行深度学习网络,可以有效地减少深度学习网络的内存开销,也即可以使内存优化的效果更加显著。
-
公开(公告)号:CN118247625A
公开(公告)日:2024-06-25
申请号:CN202211658398.9
申请日:2022-12-22
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06V10/82 , G06N3/0464 , G06N3/048 , G06N5/046
Abstract: 本申请实施例提供了一种图像处理方法、装置及存储介质,涉及人工智能技术领域,包括:获得待处理图像;将所述待处理图像输入融合编译后的图像处理模型,得到图像处理结果,其中,所述融合编译后的图像处理模型为:基于图像处理模型对应的计算图,对图像处理模型的预处理层、推理层、后处理层中存在数据依赖关系的算子进行融合后、编译得到的网络模型;图像处理模型对应的计算图包含:在图像处理模型的图像处理流程中,算子之间的数据依赖关系。应用本申请实施例提供的方案可以提高图像处理效率。
-
公开(公告)号:CN118070852A
公开(公告)日:2024-05-24
申请号:CN202211467120.3
申请日:2022-11-22
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/0464 , G06N3/08 , G06V20/62
Abstract: 本发明实施例提供了一种图像处理方法、装置、电子设备及存储介质,所述方法包括:获取待处理图像,待处理图像为需要进行目标处理的图像,目标处理包括对特征图进行非0填充后进行卷积运算;将所述待处理图像输入预设卷积神经网络进行处理,得到图像处理结果,预设卷积神经网络为预先将原始卷积神经网络中的第一子结构替换为第二子结构得到的,第一子结构将特征图输入非0填充节点后的输出结果输入卷积层,第二子结构的计算结果与所述第一子结构,且不将特征图输入非0填充节点后的输出结果输入卷积层。由于卷积层的输入不包括非0填充节点,因此硬核可以执行填充值非0的卷积计算操作,提高了图像处理的效率。
-
公开(公告)号:CN112926168B
公开(公告)日:2023-05-09
申请号:CN201911232364.1
申请日:2019-12-05
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06F30/20 , G06F8/41 , G06N3/0464 , G06V10/82
Abstract: 本申请公开了一种确定最优计算模板的方法和装置,属于神经网络技术领域。该方法包括:基于目标计算层的张量算式,确定目标计算层对应的各种计算模板,在各种计算模板中,确定满足预设的本设备的硬件限制条件的目标计算模板,基于每种目标计算模板,对张量算式进行编译和模拟运行,并确定每种目标计算模板的运行时间,将运行时间最小的目标计算模板,确定为最优计算模板。本申请通过预先设置本设备的硬件限制条件,在目标计算层对应的各种计算模板中,确定满足预设的本设备的硬件限制条件的目标计算模板,排除了部分不合理组合,避免了不合理组合编译运行的时间的耗费,缩短了时间。
-
公开(公告)号:CN112926168A
公开(公告)日:2021-06-08
申请号:CN201911232364.1
申请日:2019-12-05
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本申请公开了一种确定最优计算模板的方法和装置,属于神经网络技术领域。该方法包括:基于目标计算层的张量算式,确定目标计算层对应的各种计算模板,在各种计算模板中,确定满足预设的本设备的硬件限制条件的目标计算模板,基于每种目标计算模板,对张量算式进行编译和模拟运行,并确定每种目标计算模板的运行时间,将运行时间最小的目标计算模板,确定为最优计算模板。本申请通过预先设置本设备的硬件限制条件,在目标计算层对应的各种计算模板中,确定满足预设的本设备的硬件限制条件的目标计算模板,排除了部分不合理组合,避免了不合理组合编译运行的时间的耗费,缩短了时间。
-
公开(公告)号:CN113704687A
公开(公告)日:2021-11-26
申请号:CN202010437327.0
申请日:2020-05-21
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06F17/16
Abstract: 本发明实施例提供了一种张量计算运行方法、装置及运算系统。其中,所述方法包括:生成多个计算指令,所述计算指令用于表示张量计算方式;针对每个所述计算指令,将所述多个设备端中一个设备端确定为该计算指令对应的设备端;针对每个计算指令,以该计算指令所对应的设备端的预设运行环境能够解析的封装方式,封装所述计算指令,得到该设备端对应的任务信息;针对每个所述任务信息,向该任务信息所对应的设备端发送该任务信息,以使得所述多个设备端按照所述多个计算指令所表示的张量计算方式并行地进行张量计算。可以通过并行计算的方式充分利用大规模运算的优势,加速张量计算,能够有效提高张量计算的效率。
-
公开(公告)号:CN118279629A
公开(公告)日:2024-07-02
申请号:CN202211725066.8
申请日:2022-12-30
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06V10/764 , G06V10/82 , G06V20/40 , G10L15/16 , G06F16/35 , G06N3/0464
Abstract: 本申请公开了一种深度学习数据计算的方法、装置、电子设备及存储介质,属于深度学习领域,用以提高深度学习数据计算的效率,所述方法包括:确定数据处理模型中的多个网络节点分别处理多种数据格式的数据对应的第一耗时;确定所述多个网络节点之间对不同所述数据格式的数据进行格式转换对应的第二耗时;根据所述第一耗时和所述第二耗时,确定处理器运行所述数据处理模型总耗时最小时各所述网络节点对应的目标数据格式;针对各网络节点,以所述网络节点所对应的目标数据格式对输入至所述网络节点的数据进行计算。
-
-
-
-
-
-
-
-
-