一种数据处理方法、装置及设备

    公开(公告)号:CN113222121B

    公开(公告)日:2023-08-29

    申请号:CN202110602261.0

    申请日:2021-05-31

    Abstract: 本申请提供一种数据处理方法、装置及设备,该方法包括:获取至少一个训练平台训练的第一深度学习模型,每一训练平台训练的第一深度学习模型包括第一模型结构、第一模型参数;将每一训练平台训练的第一深度学习模型转换为第二深度学习模型,第二深度学习模型包括第二模型结构、第二模型参数;将该第二深度学习模型转换为与硬件设备匹配的第三深度学习模型;将该第三深度学习模型发送给该硬件设备,以使该硬件设备运行该第三深度学习模型,并通过该第三深度学习模型实现数据处理。通过本申请的技术方案,可以提升跨训练平台以及跨硬件设备的部署效率,减少开发工作量,提高用户体验。

    一种图像处理方法、装置及设备
    12.
    发明公开

    公开(公告)号:CN115187845A

    公开(公告)日:2022-10-14

    申请号:CN202210815529.3

    申请日:2022-07-08

    Abstract: 本申请提供一种图像处理方法、装置及设备,该方法包括:获取待处理图像对应的输入特征;基于所述输入特征确定移位操作特征,基于所述输入特征和所述移位操作特征确定限定范围特征;基于所述移位操作特征和所述限定范围特征确定所述待处理图像对应的映射特征;基于所述映射特征进行归一化操作,得到归一化特征,并基于所述归一化特征确定所述待处理图像对应的输出特征;基于所述输出特征确定所述待处理图像对应的图像处理结果。通过本申请的技术方案,能够减轻运算复杂度,运算量较小,资源消耗较小。

    稀疏处理方法、装置及设备

    公开(公告)号:CN112102183A

    公开(公告)日:2020-12-18

    申请号:CN202010910413.9

    申请日:2020-09-02

    Abstract: 本发明提供一种稀疏处理方法、装置及设备,可根据特征图确定稀疏参数,进而可避免或减少关键信息的损失。该方法包括:获得待处理的目标特征图,所述目标特征图包含多个特征值;将所述目标特征图输入至已训练的稀疏网络以得到稀疏特征图;其中,所述稀疏网络包括第一计算层和第二计算层,所述第一计算层用于依据所述目标特征图中的各特征值确定对应的稀疏参数并输出给所述第二计算层,所述第二计算层用于依据输入的所述稀疏参数对所述目标特征图中的特征值进行稀疏处理以得到所述稀疏特征图。

    一种车牌识别方法、装置及电子设备

    公开(公告)号:CN111353517A

    公开(公告)日:2020-06-30

    申请号:CN201811580274.7

    申请日:2018-12-24

    Abstract: 本申请提供一种车牌识别方法、装置及电子设备,该方法包括:将已训练的第一网络模型量化处理为第二网络模型;将目标图像输入至所述第二网络模型,获得所述目标图像中车牌的字符识别结果和车牌类别信息;其中,所述第二网络模型基于每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像进行处理;依据所述字符识别结果和所述车牌类别信息识别所述车牌。本申请通过定点数形式的网络模型进行车牌识别,大大降低了车牌识别过程中占用的内存空间,从而提升了电子设备的运行效率。

    任务处理方法、装置、电子设备及存储介质

    公开(公告)号:CN119830956A

    公开(公告)日:2025-04-15

    申请号:CN202411863753.5

    申请日:2022-06-21

    Abstract: 本申请提供一种任务处理方法、装置、电子设备及存储介质,该方法包括:在对Transformer模型进行训练的过程中,对于Transformer模型中的任一归一化层,确定该归一化层当前批次的第一统计值,依据该第一统计值以及该归一化层历史批次的统计值,利用滑动平均策略,对该第一统计值进行平滑处理,得到第二统计值,并利用将该归一化层的第二统计值进行前向或反向传播;在利用训练好的Transformer模型进行任务处理的过程中,对于Transformer模型中的任一归一化层,将该归一化层的统计值固定为第三统计值进行推理计算。该方法可以在降低Transformer模型的计算内存消耗的情况下,保证处理性能。

    一种模型量化方法、装置、电子设备及存储介质

    公开(公告)号:CN119337045A

    公开(公告)日:2025-01-21

    申请号:CN202411873806.1

    申请日:2024-12-18

    Abstract: 本申请实施例提供了一种模型量化方法、装置、电子设备及存储介质,涉及深度学习技术领域。方法包括:获取原始模型中待量化网络层的待量化权重矩阵;将待量化权重矩阵中各权重分为多个权重组;计算各权重组对应的第一模型损失;按照对应的第一模型损失从大到小的顺序确定当前待处理的权重组;以当前待处理的权重组对应的第二模型损失最小为优化目标,基于目标量化格式确定当前待处理的权重组的目标量化结果;按照对应的第一模型损失从大到小的顺序确定当前待处理的权重组,直至得到各权重组的目标量化结果;基于各权重组的目标量化结果得到量化后的目标模型。如此可以对原始模型进行量化,且量化后的目标模型的模型损失较小。

    一种自注意力机制计算方法、推理方法

    公开(公告)号:CN118396039A

    公开(公告)日:2024-07-26

    申请号:CN202410852330.7

    申请日:2024-06-27

    Abstract: 本申请实施例提供了一种自注意力机制计算方法、推理方法,该方法包括:基于待处理对象确定查询矩阵、键矩阵、以及值矩阵;待处理对象包括图像、文本、视频、音频、信号中的任一种或多种;并计算查询矩阵与转置后键矩阵的乘积,作为第一乘积矩阵;以自然常数e为底数,并以第一乘积矩阵为指数,得到第二乘积矩阵;若值矩阵的列数小于第一乘积矩阵的列数,计算第二乘积矩阵与值矩阵的乘积,作为第三乘积矩阵;计算第二乘积矩阵的和值,作为矩阵和值;并计算第三乘积矩阵与矩阵和值的比值,作为基于自注意力机制得到的输出特征。应用本申请实施例提供的技术方案,能够提高基于自注意力机制的推理任务的效率。

    一种数据块处理方法、装置及电子设备

    公开(公告)号:CN111753949B

    公开(公告)日:2024-06-07

    申请号:CN201910245117.9

    申请日:2019-03-28

    Abstract: 本发明实施例提供了一种数据块处理方法、装置及电子设备。其中,所述方法包括:获取多个经过裁剪处理的输入数据块,所述输入数据块中的特征数据设置有标签,所述标签用于表示特征数据在经过裁剪处理前所处的位置;针对所述多个输入数据块中的每个特征数据,将该特征数据,和与该特征数据的标签相同的特征数据进行预设计算,得到计算结果;将所述计算结果存放于输出数据块中该特征数据的标签所表示的位置。可以在输入数据块尺寸不同的情况下,实现对输入数据块的元素级操作。由于不要求输入数据块的尺寸相同,因此可以输入数据块的裁剪方式可以相对独立,即可以分别针对每个输入数据块进行独立优化,可以有效降低神经网络的优化难度。

    网络模型裁剪方法、装置、电子设备及可读存储介质

    公开(公告)号:CN113537377B

    公开(公告)日:2024-01-23

    申请号:CN202110859748.7

    申请日:2021-07-28

    Abstract: 本申请提供一种网络模型裁剪方法、装置、电子设备及可读存储介质,该方法包括:对原始网络模型进行稀疏约束训练;依据同一训练过程中对所述原始网络模型进行不同轮数的稀疏约束训练的训练结果统计N1条裁剪参数‑优化目标量曲线,直至统计得到的裁剪参数‑优化目标量曲线满足预设停止规则;依据所述N1条裁剪参数‑优化目标量曲线,以及预设裁后优化目标量,确定第一目标裁剪参数;依据所述第一目标裁剪参数确定各层的裁剪比例;依据各层的裁剪比例,对所述原始网络模型进行变权重稀疏约束训练,得到原始网络模型对应的稀疏模型,并依据各层的裁剪比例对所述稀疏模型进行裁剪。该方法可以实现基于变权重稀疏约束的网络模型自动裁剪。

Patent Agency Ranking