-
公开(公告)号:CN108615077A
公开(公告)日:2018-10-02
申请号:CN201611132262.9
申请日:2016-12-09
Applicant: 杭州海康威视数字技术股份有限公司
CPC classification number: G06N99/00
Abstract: 本发明公开了一种应用于深度学习网络的缓存优化方法及装置,其中缓存优化方法包括:对深度学习网络的第N层进行模拟运算;模拟运算后检测第一预定缓存块是否被占用,如果被占用,则为第N层的输出数据分配第二预定缓存块,并在满足预设条件时,释放被占用的所述第一预定缓存块。通过本发明能够解决深度学习网络每层训练中,缓存优化繁琐的问题,并使得缓存的优化和分配变得更加简单和高效,特别是能够适应不同的网络。
-
公开(公告)号:CN108009465A
公开(公告)日:2018-05-08
申请号:CN201610966076.9
申请日:2016-10-31
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本发明实施例公开了一种人脸识别方法及装置,方法包括:确定待识别人脸图像对应的第一属性信息;在数据库中选取属性信息与第一属性信息匹配的候选人脸图像;数据库中存储有每张预存人脸图像的属性信息及对应的人员信息;将待识别人脸图像与候选人脸图像进行相似度计算;将计算结果大于第一预设阈值的候选人脸图像确定为目标人脸图像;将数据库中存储的目标人脸图像对应的人员信息确定为待识别人脸图像对应的人员信息,降低了人脸识别过程中的计算量。
-
公开(公告)号:CN119990199A
公开(公告)日:2025-05-13
申请号:CN202311503148.2
申请日:2023-11-10
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/0495 , G06N3/0464 , G06N3/045 , G06N3/082 , G06F17/16
Abstract: 本发明提供一种神经网络模型稀疏化计算方法、装置,包括:对神经网络模型各卷积层进行权重稀疏化,以获取稀疏化神经网络模型;将稀疏化神经网络模型各卷积层的权重参数转换为权重矩阵,将输入数据转换为输入矩阵;依据缓存容量,对输入矩阵划分为多个运算子矩阵;获取权重矩阵每一行中的权重参数的列索引,并依据列索引从运算子矩阵中获取对应的行;将同一行中每个权重参数与运算子矩阵中对应的行相乘得到一维待处理矩阵,并将同一行中每个权重参数对应的一维待处理矩阵累加,获取一维中间矩阵;依据每行权重参数与每个运算子矩阵得到的一维中间矩阵,确定卷积结果。本发明提供的神经网络模型稀疏化计算方法,能够有效的提高稀疏化计算性能。
-
公开(公告)号:CN118282868A
公开(公告)日:2024-07-02
申请号:CN202211709505.6
申请日:2022-12-29
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本申请公开了一种网络模型的运行方法、电子设备及存储介质,其中方法包括:在通过异构硬件设备运行网络模型的情况下,根据所述异构硬件设备的硬件资源信息,确定所述网络模型中每个计算节点待运行的硬件设备,其中所述异构硬件设备包括至少两个硬件设备;将所述网络模型中在同一个所述硬件设备中运行的计算节点切分为一个子网络,得到至少两个子网络;在每个所述子网络对应的硬件设备中运行所述子网络。本实施例充分利用了硬件设备的硬件资源。
-
公开(公告)号:CN109032610B
公开(公告)日:2024-04-09
申请号:CN201710429234.1
申请日:2017-06-08
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06F8/60 , G06N20/00 , H04L49/356
Abstract: 本发明实施例提供了一种程序包部署方法、电子设备及分布式系统,该方法应用于第一计算节点,包括:接收训练任务信息,训练任务信息中包含执行训练任务的各台计算节点信息;根据训练任务信息,确定第一计算节点的状态是否为主用状态;如果为主用状态,获取训练程序包,并将所获取的训练程序包部署到执行训练任务的各台计算节点。可见,本方案中,只有主用状态的计算节点获取训练程序包,并将所获取的训练程序包部署到执行训练任务的各台计算节点,也就是说,并不是每台计算节点都从管理设备中获取程序包,降低了网络带宽压力。
-
公开(公告)号:CN111381956B
公开(公告)日:2024-02-27
申请号:CN201811628664.7
申请日:2018-12-28
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06F9/50
Abstract: 本申请提供一种任务处理的方法、装置及云分析系统,所述云分析系统包括任务调度节点以及至少一个计算节点,当所述方法应用于任务调度节点时,所述方法包括:接收待进行任务分析的目标任务;依据已获取的各计算节点中分析芯片的优先级确定用于执行所述目标任务的目标分析芯片;将所述目标任务发送至所述目标分析芯片所处的计算节点,以由该计算节点将所述目标任务下发至所述目标分析芯片进行处理。本申请保障了云分析系统中的各分析芯片的处理任务达到负载均衡,保证了系统能够稳定的运行,避免出现任务堆积在某一个分析芯片上导致出现单个芯片寿命异常的问题。
-
公开(公告)号:CN116992924A
公开(公告)日:2023-11-03
申请号:CN202211413047.1
申请日:2022-11-11
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/0464 , G06N3/08
Abstract: 本申请提供一种卷积神经网络模型的优化方法、装置、设备及存储介质,涉及卷积神经网络算法部署技术领域。该方法包括:获取待优化的卷积神经网络模型,待优化的卷积神经网络模型包括第一卷积层;根据第一卷积层对应的通道的初始权重,确定第一卷积层的参考权重,并将参考权重写入第一卷积层对应的每个通道中;根据参考权重、以及第一卷积层对应的每个通道的初始权重,确定第一卷积层对应的每个通道的缩放系数;根据第一卷积层对应的每个通道的缩放系数,在第一卷积层之后增加第一缩放层,得到优化后的卷积神经网络模型。该方法适用于卷积神经网络模型的部署过程中,用于优化卷积神经网络模型。
-
公开(公告)号:CN113469364B
公开(公告)日:2023-10-13
申请号:CN202010247286.9
申请日:2020-03-31
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本申请实施例提供了一种推理平台、方法及装置。其中,所述推理平台包括推理库和私有层接口,所述私有层接口,用于按照通过所述私有层接口输入的私有层的层信息,定义所述私有层的执行逻辑;所述推理库,用于利用所述推理库已经涵盖的支持层和已经注册的私有层,执行输入的深度学习算法模型,以对输入的图像进行推理,得到推理结果;每当所执行的层为所述私有层时,调用所述私有层接口执行所执行的私有层被定义的执行逻辑。可以使得一个推理平台能够完成多种不同的具有用户自定义的私有层的深度学习模型的推理,无需针对不同的应用场景,分别开发推理库,提高开发效率,降低开发的人工成本,提升应用开发的灵活性以及实现设备的开放。
-
公开(公告)号:CN111752700B
公开(公告)日:2023-08-25
申请号:CN201910239753.0
申请日:2019-03-27
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06F9/50
Abstract: 本申请提供一种处理器上的硬件选择方法、装置及电子设备,所述处理器需要执行的业务被划分为多个子业务,所述处理器上的多个硬件被划分为多个硬件组,所述方法包括:确定处理器上划分出的多个硬件组;多次为各子业务分配硬件组,每一次为各子业务分配的硬件组形成一个硬件方案;针对每一个硬件方案,采用该硬件方案中为各子业务分配的硬件组执行各子业务,并计算执行各子业务的总耗时;在多个硬件方案中,选择总耗时最小的硬件方案作为最终硬件方案。使用本申请的方法可以实现为处理器上处理的业务分配硬件。
-
公开(公告)号:CN111723147B
公开(公告)日:2023-07-25
申请号:CN201910217423.1
申请日:2019-03-21
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06F16/2455 , G06F16/27 , G06F21/64 , G06N3/098
Abstract: 本申请提供一种基于区块链的数据训练方法、装置及设备、存储介质,该方法包括:接收来自客户端发送的模型训练任务;依据所述模型训练任务训练出目标模型;根据指定区块链的区块链协议将与所述目标模型相关的目标数据存储至所述指定区块链中指定区块。客户端可在指定区块链上查找与目标模型相关的目标数据,减少服务器的处理数据量。
-
-
-
-
-
-
-
-
-