训练智能模型的方法及装置

    公开(公告)号:CN114118236B

    公开(公告)日:2025-04-11

    申请号:CN202111329061.9

    申请日:2021-11-10

    Abstract: 本申请是关于一种训练智能模型的方法及装置,属于计算机领域。所述方法包括:从第一神经网络中获取第一网络集合和第二网络集合;基于第一样本集合和第二样本集合,训练所述第一网络集合中的每个神经网络,得到第一模型集合;基于所述第一样本集合、所述第二样本集合和所述第一模型集合,训练所述第二网络集合中的每个神经网络,得到第二模型集合,所述第二模型集合包括训练所述m个第二神经网络得到的m个第二智能模型。

    一种图像处理模型训练方法、装置、设备及存储介质

    公开(公告)号:CN117853832A

    公开(公告)日:2024-04-09

    申请号:CN202211211486.4

    申请日:2022-09-30

    Abstract: 本申请实施例提供了一种图像处理模型训练方法、装置、设备及存储介质,涉及图像处理技术领域。将除域特定模型对应的特定图像域之外的其他特定图像域输入至域特定模型,并将输出结果与其他特定图像域标注值相同的域特定模型的注意力图作为任务相关特征,各任务相关特征可以较好地反映图像之间与模型任务相关的共性特征,对各任务相关特征进行跨模型筛选,过滤对输出结果影响小的特征值,得到突出图像各位置共性特征的任务相关注意力图。通过基于第一图像处理模型的注意力图与任务相关注意力图之间的差异训练第一图像处理模型,使得第一图像处理模型更好地学习图像间与模型任务相关的共性特征,提升模型的域泛化能力以及鲁棒性。

    一种深度神经网络运算方法及装置

    公开(公告)号:CN111144560A

    公开(公告)日:2020-05-12

    申请号:CN201811307229.4

    申请日:2018-11-05

    Abstract: 本申请实施例提供了一种深度神经网络运算方法及装置,深度神经网络运算方法包括:获取网络层输入特征图;按照预设位移参数,将网络层输入特征图的每个通道分别沿各轴向进行位移,得到位移特征图,其中,预设位移参数包括每个通道在各轴向上的位移量;利用1×1卷积核,对位移特征图进行卷积运算,得到网络层输出特征图。通过本方案,可以提高DNN的运行效率。

    一种深度神经网络运算方法及装置

    公开(公告)号:CN111144560B

    公开(公告)日:2024-02-02

    申请号:CN201811307229.4

    申请日:2018-11-05

    Abstract: 本申请实施例提供了一种深度神经网络运算方法及装置,深度神经网络运算方法包括:获取网络层输入特征图;按照预设位移参数,将网络层输入特征图的每个通道分别沿各轴向进行位移,得到位移特征图,其中,预设位移参数包括每个通道在各轴向上的位移量;利用1×1卷积核,对位移特征图进行卷积运算,得到网络层输出特征图。通过本方案,可以提高DNN的运行效率。

    一种模型训练方法及装置、目标检测方法及装置

    公开(公告)号:CN114881149A

    公开(公告)日:2022-08-09

    申请号:CN202210507932.X

    申请日:2022-05-10

    Abstract: 本申请实施例提供了一种模型训练方法及装置、目标检测方法及装置,该方法包括:利用第一模型,对第一无标签数据进行预测,得到第一无标签数据的多个第一预测标签和每个第一预测标签的置信度;根据有标签数据的标签集中每种标签类别的分布情况,确定该标签类别的第一置信度阈值;利用第一模型,对第二无标签数据进行预测,得到第二无标签数据的多个第二预测标签和每个第二预测标签的置信度;在第二预测标签中,确定置信度大于所属标签类别的第一置信度阈值的第二预测标签,作为候选标签;利用有标签数据、第二无标签数据以及候选标签,对第二模型进行训练。应用本申请实施例提供的技术方案,能够降低模型训练所需耗费的人力资源。

    深度神经网络的网络模型压缩方法、装置及计算机设备

    公开(公告)号:CN109754077B

    公开(公告)日:2022-05-06

    申请号:CN201711092273.3

    申请日:2017-11-08

    Abstract: 本发明实施例提供了一种深度神经网络的网络模型压缩方法、装置及计算机设备,其中,深度神经网络的网络模型压缩方法包括:获取原始深度神经网络;通过对原始深度神经网络的网络层中各运算单元的重要度进行分析,确定该网络层中重要度低于预设重要度的运算单元作为待删除运算单元;删除原始深度神经网络中各网络层的待删除运算单元,得到网络模型压缩后的深度神经网络。通过本方案可以提高目标识别与目标检测的效率。

    训练智能模型的方法及装置

    公开(公告)号:CN114118236A

    公开(公告)日:2022-03-01

    申请号:CN202111329061.9

    申请日:2021-11-10

    Abstract: 本申请是关于一种训练智能模型的方法及装置,属于计算机领域。所述方法包括:从第一神经网络中获取第一网络集合和第二网络集合;基于第一样本集合和第二样本集合,训练所述第一网络集合中的每个神经网络,得到第一模型集合;基于所述第一样本集合、所述第二样本集合和所述第一模型集合,训练所述第二网络集合中的每个神经网络,得到第二模型集合,所述第二模型集合包括训练所述m个第二神经网络得到的m个第二智能模型。

    一种目标检测模型训练方法、目标检测方法和装置

    公开(公告)号:CN112784691A

    公开(公告)日:2021-05-11

    申请号:CN202011625231.3

    申请日:2020-12-31

    Abstract: 本申请实施例提供了一种目标检测模型训练方法、目标检测方法和装置,获取当前检测场景的未标注标签的第一样本图像;基于基线检测模型对第一样本图像进行检测,确定第一样本图像中置信度大于第一预设阈值的目标图像区域;基于第一样本图像中目标图像区域的图像特征,对第一样本图像中的目标图像区域进行聚类,得到多个图像区域集合;针对每一图像区域集合,基于该图像区域集合包含的目标图像区域的置信度,计算该图像区域集合的置信度,作为该图像区域集合包含的目标图像区域的软标签;针对第一样本图像中的每一目标图像区域,根据该目标图像区域的软标签,对基线检测模型进行模型训练,得到目标检测模型,能够降低检测的成本,提高检测的效率。

    生成神经网络模型的方法、装置及存储介质

    公开(公告)号:CN112329909B

    公开(公告)日:2022-10-21

    申请号:CN201910718494.X

    申请日:2019-08-05

    Abstract: 本申请公开了一种生成神经网络模型的方法及装置,属于深度学习领域。本申请通过第一神经网络模型中的N个层来确定得到第二神经网络模型。其中,第一神经网络模型是已经训练好的模型,第二神经网络模型包括第一神经网络模型的N个层,并且,第二神经网络模型中的N个层中除批归一化层之外的其余层的参数均采用第一神经网络模型中的对应层的参数。由此可见,在本申请中,通过第一神经网络模型中的部分层得到的第二神经网络模型可以与第一神经网络模型中对应的层共用参数。这样,只需要训练好一个网络模型,即可根据该训练好的模型得到适配不同运算平台的不同深度的模型,无需重新对不同深度的模型进行训练,省时省力,且节省资源。

Patent Agency Ranking