-
公开(公告)号:CN113222121B
公开(公告)日:2023-08-29
申请号:CN202110602261.0
申请日:2021-05-31
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/0464 , G06N3/08
Abstract: 本申请提供一种数据处理方法、装置及设备,该方法包括:获取至少一个训练平台训练的第一深度学习模型,每一训练平台训练的第一深度学习模型包括第一模型结构、第一模型参数;将每一训练平台训练的第一深度学习模型转换为第二深度学习模型,第二深度学习模型包括第二模型结构、第二模型参数;将该第二深度学习模型转换为与硬件设备匹配的第三深度学习模型;将该第三深度学习模型发送给该硬件设备,以使该硬件设备运行该第三深度学习模型,并通过该第三深度学习模型实现数据处理。通过本申请的技术方案,可以提升跨训练平台以及跨硬件设备的部署效率,减少开发工作量,提高用户体验。
-
公开(公告)号:CN119337045A
公开(公告)日:2025-01-21
申请号:CN202411873806.1
申请日:2024-12-18
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06F17/16 , G06F17/11 , G06F18/214
Abstract: 本申请实施例提供了一种模型量化方法、装置、电子设备及存储介质,涉及深度学习技术领域。方法包括:获取原始模型中待量化网络层的待量化权重矩阵;将待量化权重矩阵中各权重分为多个权重组;计算各权重组对应的第一模型损失;按照对应的第一模型损失从大到小的顺序确定当前待处理的权重组;以当前待处理的权重组对应的第二模型损失最小为优化目标,基于目标量化格式确定当前待处理的权重组的目标量化结果;按照对应的第一模型损失从大到小的顺序确定当前待处理的权重组,直至得到各权重组的目标量化结果;基于各权重组的目标量化结果得到量化后的目标模型。如此可以对原始模型进行量化,且量化后的目标模型的模型损失较小。
-
公开(公告)号:CN113537377B
公开(公告)日:2024-01-23
申请号:CN202110859748.7
申请日:2021-07-28
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06V10/774 , G06V20/10 , G06V10/82 , G06N3/0464
Abstract: 本申请提供一种网络模型裁剪方法、装置、电子设备及可读存储介质,该方法包括:对原始网络模型进行稀疏约束训练;依据同一训练过程中对所述原始网络模型进行不同轮数的稀疏约束训练的训练结果统计N1条裁剪参数‑优化目标量曲线,直至统计得到的裁剪参数‑优化目标量曲线满足预设停止规则;依据所述N1条裁剪参数‑优化目标量曲线,以及预设裁后优化目标量,确定第一目标裁剪参数;依据所述第一目标裁剪参数确定各层的裁剪比例;依据各层的裁剪比例,对所述原始网络模型进行变权重稀疏约束训练,得到原始网络模型对应的稀疏模型,并依据各层的裁剪比例对所述稀疏模型进行裁剪。该方法可以实现基于变权重稀疏约束的网络模型自动裁剪。
-
公开(公告)号:CN113869491A
公开(公告)日:2021-12-31
申请号:CN202111075279.6
申请日:2021-09-14
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本申请提供一种网络模型确定方法、装置、电子设备及可读存储介质,该方法包括:依据预设搜索空间构建超网络;依据所述超网络,分别训练得到浮点超网络、浮点比特超网络、N1/N2比特超网络;其中,N1、N2为正整数;依据所述浮点超网络、浮点比特超网络、N1/N2比特超网络,进行模型结构和混合比特联合搜索,确定最终模型结构和量化比特。该方法可以在优化所确定的最终网络模型的性能的情况下,减少搜索空间,提高搜索效率。
-
公开(公告)号:CN119227757B
公开(公告)日:2025-03-04
申请号:CN202411752106.7
申请日:2024-12-02
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/0495 , G06N3/08
Abstract: 本申请实施例提供了一种模型压缩方法、装置、电子设备、存储介质及产品,涉及深度学习技术领域,方法包括:针对同一输入数据,分别利用待压缩模型和量化模型进行处理;计算待压缩模型与量化模型的输出数据之间的差异,作为量化模型对应的第一差异;按照第一差异对待压缩模型中每一网络层的量化参数进行调整;基于每一网络层的最优量化参数计算该网络层的连续域量化位宽;从需要部署模型的硬件平台所支持的各离散域量化位宽中,确定大于该网络层的连续域量化位宽且与该网络层的连续域量化位宽的差值最小的离散域量化位宽;从利用多个稀疏度组合分别进行压缩得到的各备选压缩模型中,确定对应的第二差异最小的目标压缩模型。可以提高模型的适用性。
-
公开(公告)号:CN119227770A
公开(公告)日:2024-12-31
申请号:CN202411755976.X
申请日:2024-12-03
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/082
Abstract: 本申请涉及模型部署技术领域,公开了多模态大语言模型量化方法、装置、设备、存储介质及产品,包括:将待量化大模型划分为多模态处理分块以及语言模型分块;根据多模态处理分块中各处理子模块对应的量化误差构建处理子模块序列;基于处理子模块序列对多模态处理分块中各处理子模块分别进行量化;根据量化后的所述多模态处理分块确定语言子模块序列;依据语言子模块序列对所述语言模型分块中各语言子模块分别进行量化。由于可依据多模态语言大模型的计算特性进行针对性的模块划分,并基于模块划分顺序进行量化调整,确保量化符合模型的实际计算特性,提升了对多模态语言大模型进行量化部署的效果。
-
公开(公告)号:CN118839742B
公开(公告)日:2024-12-20
申请号:CN202411329970.6
申请日:2024-09-24
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/082 , G06N3/0495 , G06N3/045
Abstract: 本申请涉及模型量化技术领域,公开了模型量化方法、装置、设备、存储介质及产品,包括:获取初始浮点模型的模型输出数据,以及初始浮点模型的输出层各输出节点对应的相关性分值,并获取初始浮点模型中各层网络对应的单层量化输出数据;计算初始浮点模型中各层网络分别对应的敏感度评估值;根据敏感度评估值从初始浮点模型中各层网络中选取待调整网络;对初始浮点模型中待调整网络及其他层网络设置量化配置;根据设置后的量化配置对初始浮点模型进行模型量化。由于是根据可表征网络的量化对模型输出影响程度的敏感度评估值选取部分网络作为待调整网络,并将待调整网络设置为量化精度较高的量化配置,保证了可合理的调整量化方式,提高量化效果。
-
公开(公告)号:CN118354084A
公开(公告)日:2024-07-16
申请号:CN202310064103.3
申请日:2023-01-13
Applicant: 杭州海康威视数字技术股份有限公司
IPC: H04N19/169 , H04N19/423 , H04N19/44
Abstract: 本申请提供一种解码、编码方法、装置及其设备,该解码方法包括:从当前图像块对应的辅助码流中解码所述当前图像块对应的位宽信息;获取所述位宽信息对应的定点化权重,基于所述定点化权重获取解码网络;从当前图像块对应的主码流中解码所述当前图像块的目标特征,并基于所述解码网络对所述目标特征进行处理,得到所述当前图像块对应的重建图像块。通过本申请技术方案,能够在保证解码质量的前提下,降低解码计算量。
-
公开(公告)号:CN112329923B
公开(公告)日:2024-05-28
申请号:CN202011334592.2
申请日:2020-11-24
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/0464 , G06N3/082
Abstract: 本申请提供一种模型压缩方法、装置、电子设备及可读存储介质,该模型压缩方法包括:将待压缩模型划分为多个优化单元,其中,一个优化单元包括所述待压缩模型中连续的多个卷积层;对于任一优化单元,对该优化单元中各卷积层的参数进行量化,得到量化后的优化单元;分别对所述量化后的优化单元中各卷积层的参数进行优化,以使第一距离小于第二距离。该方法可以在保证模型性能和模型压缩效果的情况下,减少模型压缩消耗的时间和计算、存储资源。
-
公开(公告)号:CN116912662A
公开(公告)日:2023-10-20
申请号:CN202310897761.0
申请日:2023-07-20
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06V10/82 , G06N3/048 , G06N3/0495 , G06N3/084 , G06V10/776
Abstract: 本申请实施例提供了一种对象检测模型训练方法、装置、电子设备及存储介质,应用于信息技术领域。应用本申请的方法,可以对对象检测模型训练过程中的网络层权重、输入以及激活值梯度进行量化,从而达到加速对象检测模型训练的目的。本申请将第一激活值梯度按照输出通道方向切割得到第二激活值梯度并计算缩放系数,再通过缩放系数与第二激活值梯度对网络层的输入梯度与网络层的权重梯度进行等价计算,降低对象检测模型在反向传播过程中量化梯度所带来的误差,从而在加速对象检测模型训练的同时,提升对象检测模型的准确度,达到对象检测模型训练效率与训练效果的平衡。
-
-
-
-
-
-
-
-
-