-
公开(公告)号:CN116258169A
公开(公告)日:2023-06-13
申请号:CN202111490435.5
申请日:2021-12-08
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/0464 , G06N3/08 , G06F18/23213
Abstract: 本申请实施例提供了一种网络模型压缩方法、装置及存储介质,涉及深度学习技术领域,按照预设的压缩顺序,从网络模型中确定当前待压缩的网络层;针对每一预设压缩方式,按照该预设压缩方式对当前待压缩的网络层进行压缩,得到该预设压缩方式对应的压缩后的网络模型;其中,在压缩后的网络模型中,其他网络层为分别按照各自已确定的最优压缩方式进行压缩得到的;按照对应的压缩后的网络模型的准确度和/或压缩率,从各预设压缩方式中确定当前待压缩的网络层的最优压缩方式,并返回执行按照预设的压缩顺序,从各网络层中确定当前待压缩的网络层步骤,直至确定出各网络层的最优压缩方式。基于此,能够提高压缩效果。
-
公开(公告)号:CN110673944B
公开(公告)日:2022-09-09
申请号:CN201810716577.0
申请日:2018-07-03
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06F9/50
Abstract: 本公开是关于一种执行任务的方法和装置,属于电子技术领域。所述方法包括:每当接收到任务时,根据预设的任务类型和执行优先级的对应关系,以及任务所属的任务类型,确定并记录任务对应的执行优先级;执行任务包括的各子任务;当检测到当前空闲的硬件资源量不足以同时执行多个不同任务中待执行的子任务时,基于多个不同任务中每个任务的执行优先级,在待执行的子任务中,确定优先执行的目标子任务,执行目标子任务。采用本公开,在硬件资源不足的情况下,根据执行优先级来确定优先执行哪些待执行的子任务。基于执行优先级,后开始的任务也可以优先执行,因此,提高了执行任务的灵活性。
-
公开(公告)号:CN114676812A
公开(公告)日:2022-06-28
申请号:CN202011552462.6
申请日:2020-12-24
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/04
Abstract: 本申请实施例提供一种深度学习模型转换方法及装置,该方法包括:根据函数装饰器和捕获函数对第一模型的网络结构代码进行处理,获取第一模型中的公共层、自定义层、以及每个层的层参数,第一模型为在第一深度学习框架下可识别的模型;根据公共层、自定义层和每个层的层参数,生成第一模型的中间表示格式IR,所述中间表示格式为多个深度学习框架下进行模型转换的统一表示格式;根据第一模型的中间表示格式,生成第二深度学习框架下可识别的第二模型。能实现自定义层的完整转换,从而保障第一模型在不同深度学习模型框架下的正确转换。
-
公开(公告)号:CN114492720A
公开(公告)日:2022-05-13
申请号:CN202011148242.7
申请日:2020-10-23
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本申请公开了一种构建神经网络模型的方法和装置,属于人工智能技术领域。所述方法包括:在神经网络模型中除卷积层以外的网络层中,确定目标非卷积层,基于存储的非卷积层的类型和卷积层的属性参数之间的对应关系,获取用于替换所述目标非卷积层的目标卷积层的属性参数,基于目标卷积层的属性参数构建所述目标卷积层,将目标非卷积层替换为所述目标卷积层,得到替换后的神经网络模型。采用本申请,可以提高神经网络模型的整体计算效率。
-
公开(公告)号:CN113704687A
公开(公告)日:2021-11-26
申请号:CN202010437327.0
申请日:2020-05-21
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06F17/16
Abstract: 本发明实施例提供了一种张量计算运行方法、装置及运算系统。其中,所述方法包括:生成多个计算指令,所述计算指令用于表示张量计算方式;针对每个所述计算指令,将所述多个设备端中一个设备端确定为该计算指令对应的设备端;针对每个计算指令,以该计算指令所对应的设备端的预设运行环境能够解析的封装方式,封装所述计算指令,得到该设备端对应的任务信息;针对每个所述任务信息,向该任务信息所对应的设备端发送该任务信息,以使得所述多个设备端按照所述多个计算指令所表示的张量计算方式并行地进行张量计算。可以通过并行计算的方式充分利用大规模运算的优势,加速张量计算,能够有效提高张量计算的效率。
-
公开(公告)号:CN113361703A
公开(公告)日:2021-09-07
申请号:CN202010151570.6
申请日:2020-03-06
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本申请实施例提供了一种数据处理方法、装置及电子设备,应用于包括融合层的深度学习网络,每一融合层分别与深度学习框架中的卷积层一一对应,每一卷积层对应的融合层为:通过预设参数融合方式和预设规则融合方式、将待融合层融合至该卷积层得到的网络层;方法包括:每一融合层获得与该融合层连接的上一融合层对待处理数据进行数据处理的结果和待处理数据;根据融合层的参数和融合层对应的数据处理规则,对所获得的结果和待处理数据进行数据处理。采用本申请实施例提供的方案处理数据,可以减少数据处理过程中对内存或显存的访问次数,提高数据处理的速度和效率。
-
公开(公告)号:CN109784481B
公开(公告)日:2021-04-02
申请号:CN201711113743.X
申请日:2017-11-13
Applicant: 杭州海康威视数字技术股份有限公司
Inventor: 叶挺群
Abstract: 本发明实施例提供了一种基于神经网络的调整方法、装置及设备,方法包括:利用推理引擎的组件,对待调整的神经网络进行多次调整,每次调整后,将输入数据输入至调整后的神经网络,得到输出数据,将每次得到的输出数据进行对比,确定最优次输出数据对应的调整后的神经网络;最优次输出数据对应的调整后的神经网络,也就是最适应该输入数据的神经网络,因此,利用本方案,提高了神经网络对数据的适应性。
-
公开(公告)号:CN112148348A
公开(公告)日:2020-12-29
申请号:CN201910577574.8
申请日:2019-06-28
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本申请公开了一种任务处理方法及装置,属于深度学习领域。在本申请中,客户端可以将接收到的任务处理命令直接发送至第一服务器上的shell容器,shell容器可以向后端服务模块发送任务处理命令,后端服务模块可以将任务处理命令发送至第二服务器,由第二服务器来处理该任务处理命令,并返回处理结果。后端服务模块可以接收该处理结果,并将该处理结果发送至shell容器。由此可见,在本申请实施例中,可以直接在shell容器内触发任务,这样,当开发人员完成代码编辑、编译等工作之后,在linux环境下可以直接通过shell容器触发任务,而不必再切换至web页面通过点击相应按钮来触发任务,操作更为方便。
-
公开(公告)号:CN108632567B
公开(公告)日:2020-07-28
申请号:CN201710157819.2
申请日:2017-03-16
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本发明公开了一种云台控制方法、装置及系统,属于安防领域。所述方法包括:检测云台摄像机的监控区域内是否存在信号源,所述云台摄像机包括云台及设置在所述云台上的摄像机;当所述监控区域内存在信号源时,判断所述信号源发射的信号是否为指示所述云台进行位置调整的位置调整信号;当所述信号源发射的信号为所述位置调整信号时,根据所述信号源的位置,调整所述云台的位置。本发明解决了相关技术中操作人员在通过终端设备登录客户端并查找到对应的云台摄像机后才能进行控制操作,对云台摄像机的控制操作的触发时延较长的问题。本发明用于控制云台。
-
公开(公告)号:CN111381956A
公开(公告)日:2020-07-07
申请号:CN201811628664.7
申请日:2018-12-28
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06F9/50
Abstract: 本申请提供一种任务处理的方法、装置及云分析系统,所述云分析系统包括任务调度节点以及至少一个计算节点,当所述方法应用于任务调度节点时,所述方法包括:接收待进行任务分析的目标任务;依据已获取的各计算节点中分析芯片的优先级确定用于执行所述目标任务的目标分析芯片;将所述目标任务发送至所述目标分析芯片所处的计算节点,以由该计算节点将所述目标任务下发至所述目标分析芯片进行处理。本申请保障了云分析系统中的各分析芯片的处理任务达到负载均衡,保证了系统能够稳定的运行,避免出现任务堆积在某一个分析芯片上导致出现单个芯片寿命异常的问题。
-
-
-
-
-
-
-
-
-