-
公开(公告)号:CN116563660A
公开(公告)日:2023-08-08
申请号:CN202210109103.6
申请日:2022-01-28
Applicant: 华为云计算技术有限公司
IPC: G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/044 , G06N3/045 , G06N3/096
Abstract: 本申请公开了一种基于预训练大模型的图像处理方法及相关装置,通过生成网络获取训练图像的特征图像,特征图像的分辨率与训练图像的分辨率相同;将训练图像和特征图像进行融合,得到目标图像;将目标图像输入到预训练大模型中,得到处理结果;根据处理结果,在保持预训练大模型的参数不变的情况下,对生成网络的参数进行更新。本申请中,针对每个下游任务配置了生成网络,在训练过程中,在保持预训练大模型的参数不变的情况下,对生成网络的参数进行更新,从而减少了在下游任务上部署预训练大模型时的训练开销,减少了模型训练难度与迭代更新的难度。
-
公开(公告)号:CN116486390A
公开(公告)日:2023-07-25
申请号:CN202210042465.8
申请日:2022-01-14
Applicant: 华为云计算技术有限公司
IPC: G06V20/62 , G06V10/764 , G06V10/75
Abstract: 本申请实施例公开了一种搜索方法以及装置,可以适用于任何一种与搜索相关的场景中。其中,方法包括获取待搜索对象,并利用目标模型对待搜索对象进行特征提取,以获取多个目标特征向量,多个目标特征向量包括第一目标特征向量和第二目标特征向量,其中,第一目标特征向量的维度低于第二目标特征向量的维度。先根据第一目标特征向量,从多个候选对象中筛选出第一候选对象,再根据第二目标特征向量,从第一候选对象中筛选出第二候选对象,最后根据第二候选对象获取与待搜索对象匹配的候选对象。通过本方案,可以提升搜索的效率,为用户提供更好的搜索服务体验。
-
公开(公告)号:CN118863086A
公开(公告)日:2024-10-29
申请号:CN202310601191.6
申请日:2023-05-25
Applicant: 华为云计算技术有限公司
Abstract: 本申请提供了一种获取模型的方法和计算设备,由于通过性能矩阵可以确定各个模型在各个测试数据集下的性能。因此,后续针对不同用户提供的目标数据可以根据目标数据和目标性能矩阵,输出该目标数据对应的推荐矩阵,即,获得用户所关注的目标评价指标下的各个模型的性能。本申请的方案可以快速的为用户输出推荐矩阵,以便确定出与目标数据适配的目标模型,可以减少计算资源的占用以及提高模型获取的效率。
-
公开(公告)号:CN118819695A
公开(公告)日:2024-10-22
申请号:CN202310429346.2
申请日:2023-04-20
Applicant: 华为云计算技术有限公司 , 中国科学技术大学
Abstract: 本申请公开了一种提示学习方法,该方法中,获取至少一组数据对,任意一组数据对包括第一数据和第二数据,第一数据包括第一提示和采用源语言的第一语料,第二数据包括第二提示和采用目标语言的第二语料,第一语料和第二语料组成一对平行语料;根据至少一组数据对以及预训练语言模型进行提示学习,以使得训练后的预训练语言模型能够根据训练后的第二提示执行基于目标语言的自然语言处理任务。这样,在提示学习过程中,预训练语言模型和/或第二提示等参数可以根据由平行语料所构建的数据对而调整,以使得训练后的预训练语言模型和/或训练后的第二提示能够对齐源语言和目标语言,缓解了跨语言迁移过程中由于语言表征差异性所带来的性能损失。
-
公开(公告)号:CN117830662A
公开(公告)日:2024-04-05
申请号:CN202211179875.3
申请日:2022-09-27
Applicant: 华为云计算技术有限公司
IPC: G06V10/74 , G06V10/26 , G06V10/764
Abstract: 本申请涉及人工智能技术领域,公开了一种预训练方法、装置、计算设备集群、及存储介质,该方法包括:将第一图像输入预训练模型得到多个第一像素的特征,其中,第一图像属于多个数据集中的第一数据集,多个数据集与多个标签集一一对应,第一图像包括上述多个第一像素,多个第一像素中的每个第一像素的标签都属于第一数据集对应的标签集,多个标签集中的所有标签分别有一个对应的文本特征;根据上述多个第一像素的特征和多个标签集中的所有标签对应的文本特征更新预训练模型。本申请能够利用多个数据集进行联合预训练,并能自动利用不同数据集的标注之间的联系,从而提升预训练效果。
-
公开(公告)号:CN117827418A
公开(公告)日:2024-04-05
申请号:CN202211194263.1
申请日:2022-09-28
Applicant: 华为云计算技术有限公司
Abstract: 本公开涉及一种神经网络模型的数据处理方法、装置、系统、介质以及程序产品,神经网络模型包括P个专家模块并且部署于多个节点中,其中第一节点包括第一计算单元,第一计算单元包括神经网络模型中的Q个专家模块,其中Q≤P,该方法包括:第一计算单元获取待处理数据,其中待处理数据包括Q个专家模块的输入数据;将待处理数据分别发送给第一处理资源和第二处理资源;第一处理资源对待处理数据进行切分,得到由第一处理资源上的专家模块进行处理的数据;以及第二处理资源对待处理数据进行切分,得到由第二处理资源上的专家模块进行处理的数据。根据本公开的实施例的数据处理方案,显著减少了处理资源或混合专家系统中数据分发和收集的通信开销和参数冗余,提高了处理效率。
-
公开(公告)号:CN117668741A
公开(公告)日:2024-03-08
申请号:CN202210959694.6
申请日:2022-08-11
Applicant: 华为云计算技术有限公司
Abstract: 本申请提供了一种模型训练方法、装置及计算机存储介质。在实施例中,该方法包括:确定业务对象;基于业务对象的第一结构化数据构建的第一样本集,确定算法池中的各算法各自对应的评估结果;基于算法池中的各算法各自的评估结果,从算法池中选择N个基算法和对应的超参数组合,构建多个基模型;基于第一样本集和多个基模型,训练预先设置的图网络模型;其中,图网络模型用于基于学习到的多个基模型针对所述业务对象之间的关系,融合多个基模型各自的第一预测结果,输出融合后的第二预测结果;基于多个基模型和训练好的图网络模型实现业务对象的预测,通过学习多个基模型之间的关系,对多个基模型各自的预测结果进行融合,确保预测结果的准确性。
-
公开(公告)号:CN117523560A
公开(公告)日:2024-02-06
申请号:CN202210940422.1
申请日:2022-07-29
Applicant: 华为云计算技术有限公司
IPC: G06V20/70 , G06V10/26 , G06V10/82 , G06N3/0455 , G06N3/08
Abstract: 本申请涉及一种语义分割方法、装置和存储介质。该方法可用于第一神经网络模型,该方法包括:获取待处理图像数据的第一图像特征数据;对第一图像特征数据进行特征增强,得到第一增强图像特征数据,第一增强图像特征数据包括图像内的上下文信息;利用第二图像特征数据对第一图像特征数据进行特征增强,得到第二增强图像特征数据,第二增强图像特征数据包括跨图像的上下文信息;根据第一增强图像特征数据和第二增强图像特征数据,确定待处理图像的预测掩码,预测掩码指示待处理图像的语义分割结果。根据本申请实施例,能够获得层次更丰富的特征信息,提高语义分割结果的准确性,可以得到更高效、迁移能力和性能更好的第一神经网络模型。
-
公开(公告)号:CN117409266A
公开(公告)日:2024-01-16
申请号:CN202210800290.2
申请日:2022-07-08
Applicant: 华为云计算技术有限公司 , 中国科学院大学
IPC: G06V10/774 , G06V10/764 , G06V10/82
Abstract: 本申请提供了一种模型训练方法、装置及相关设备,该方法包括以下步骤:获取第一模型,所述第一模型是使用第一样本集对第一神经网络进行训练后获得的,获取第二样本集,对所述第二样本集的样本分布进行校正,获得第三样本集,其中,所述第三样本集的样本分布的有偏程度低于所述第二样本集的样本分布的有偏程度,使用所述第三样本集对所述第一模型进行训练,获得训练好的第二模型,该第三样本集中的样本类型不仅包括新增的样本类型,还包括第一样本集中的旧样本类型,从而解决模型训练时的旧知识遗忘问题,同时,该第三样本集的样本分布不再是有偏分布,从而解决模型训练时的过拟合问题。
-
公开(公告)号:CN117333868A
公开(公告)日:2024-01-02
申请号:CN202210851482.6
申请日:2022-07-19
Applicant: 华为云计算技术有限公司
IPC: G06V20/70 , G06V10/22 , G06V10/774 , G06V10/94
Abstract: 本申请公开了一种识别对象的方法、装置及存储介质,属于计算机视觉领域。所述方法包括:获取待处理的视觉数据和待识别的至少一个目标对象的指示信息;基于所述至少一个目标对象的指示信息获取语义信息,所述语义信息是用于描述所述至少一个目标对象的语义;基于对象识别模型和所述语义信息,识别所述视觉数据中的所述目标对象。本申请能够提高识别对象的灵活性。
-
-
-
-
-
-
-
-
-