-
公开(公告)号:CN110807486B
公开(公告)日:2022-09-02
申请号:CN201911052428.X
申请日:2019-10-31
Applicant: 北京达佳互联信息技术有限公司
IPC: G06V10/764 , G06V10/774 , G06K9/62
Abstract: 本公开是关于一种类别标签的生成方法、装置、电子设备及存储介质,属于计算机技术领域。方法包括:基于目标数量,从备选图像集合中选取目标图像组,为目标图像组中的每个目标图像生成第一类别标签,基于预设数量,从备选图像集合中选取参考图像组,根据为参考图像组中每个参考图像标注的类别标签,获取第一准确率,根据第一准确率,对目标数量进行调整,基于调整后的目标数量,继续从其他的备选图像集合中选取目标图像组,为目标图像组中的每个目标图像生成第一类别标签。该方法自动为目标图像生成第一类别标签,不需要进行人工标注,降低了成本,提高了生成效率。并且,通过调整目标数量,从备选图像集合中选取目标图像,提高了准确率。
-
公开(公告)号:CN110543920B
公开(公告)日:2022-04-22
申请号:CN201910863873.8
申请日:2019-09-12
Applicant: 北京达佳互联信息技术有限公司
Abstract: 本公开提供了一种图像识别模型的性能检测方法、装置、服务器及存储介质,属于互联网技术领域。所述方法包括:获取测试样本集,所述测试样本集包括多个测试样本以及对应的多个真实标签,将所述多个测试样本分别输入待检测的图像识别模型,获取所述图像识别模型输出的多个预测标签,获取多个文本相似度,一个文本相似度用于表示一个测试样本的真实标签和预测标签之间的相似度,根据所述多个文本相似度,确定所述图像识别模型的识别准确率。通过根据多个文本相似度,确定模型的识别准确率,可以兼容各种图像识别模型的标签体系,无需针对样本进行重新标注,即能够实现模型的性能检测,大大降低了时间和成本的消耗,提高了模型性能检测的效率。
-
公开(公告)号:CN109447124B
公开(公告)日:2019-11-19
申请号:CN201811143305.2
申请日:2018-09-28
Applicant: 北京达佳互联信息技术有限公司
Abstract: 本申请是关于一种图像分类方法、装置、电子设备及存储介质。在本申请中,在得到待分类图像之后,可以根据预设网络结构获取待分类图像的多个特征矩阵;根据每一个特征矩阵获取N个感受野的特征向量,N为大于1的整数;将N个感受野的特征向量融合为目标特征向量;从而得到了待分类图像的具备多种感受野的目标特征向量,之后再根据目标特征量获取待分类图像的分类标签,从而可以识别出待分类图像中的所有物体,例如,除了可以识别出在待分类图像中面积占比大的物体,还可以识别出在待分类图像中面积占小的物体,从而可以获取到待分类图像的更全面的分类标签。因此,本申请可以提高分类精准度。
-
公开(公告)号:CN110163296B
公开(公告)日:2020-12-18
申请号:CN201910459366.8
申请日:2019-05-29
Applicant: 北京达佳互联信息技术有限公司
IPC: G06K9/62
Abstract: 本公开是关于一种图像识别的方法、装置、设备及存储介质,方法包括:获取第一目标训练数据子集和第一目标更新数据子集,获取基于第一目标训练数据子集训练机器学习模型得到的识别模型;根据识别模型对第一目标更新数据子集中的每一个训练数据进行识别,得到识别结果;通过第一目标更新数据子集中的每一个训练数据的识别结果更新第一目标更新数据子集中对应的训练数据的初始标签,得到更新后的第一目标更新数据子集;将更新后的第一目标更新数据子集和第一目标训练数据子集进行合并处理,得到用于训练机器学习模型的目标训练数据,利用基于目标训练数据训练得到的目标识别物的识别模型进行图像识别,提高了模型的训练效率和识别结果的准确性。
-
公开(公告)号:CN110163296A
公开(公告)日:2019-08-23
申请号:CN201910459366.8
申请日:2019-05-29
Applicant: 北京达佳互联信息技术有限公司
IPC: G06K9/62
Abstract: 本公开是关于一种图像识别的方法、装置、设备及存储介质,方法包括:获取第一目标训练数据子集和第一目标更新数据子集,获取基于第一目标训练数据子集训练机器学习模型得到的识别模型;根据识别模型对第一目标更新数据子集中的每一个训练数据进行识别,得到识别结果;通过第一目标更新数据子集中的每一个训练数据的识别结果更新第一目标更新数据子集中对应的训练数据的初始标签,得到更新后的第一目标更新数据子集;将更新后的第一目标更新数据子集和第一目标训练数据子集进行合并处理,得到用于训练机器学习模型的目标训练数据,利用基于目标训练数据训练得到的目标识别物的识别模型进行图像识别,提高了模型的训练效率和识别结果的准确性。
-
公开(公告)号:CN109447124A
公开(公告)日:2019-03-08
申请号:CN201811143305.2
申请日:2018-09-28
Applicant: 北京达佳互联信息技术有限公司
Abstract: 本申请是关于一种图像分类方法、装置、电子设备及存储介质。在本申请中,在得到待分类图像之后,可以根据预设网络结构获取待分类图像的多个特征矩阵;根据每一个特征矩阵获取N个感受野的特征向量,N为大于1的整数;将N个感受野的特征向量融合为目标特征向量;从而得到了待分类图像的具备多种感受野的目标特征向量,之后再根据目标特征量获取待分类图像的分类标签,从而可以识别出待分类图像中的所有物体,例如,除了可以识别出在待分类图像中面积占比大的物体,还可以识别出在待分类图像中面积占小的物体,从而可以获取到待分类图像的更全面的分类标签。因此,本申请可以提高分类精准度。
-
公开(公告)号:CN110807486A
公开(公告)日:2020-02-18
申请号:CN201911052428.X
申请日:2019-10-31
Applicant: 北京达佳互联信息技术有限公司
IPC: G06K9/62
Abstract: 本公开是关于一种类别标签的生成方法、装置、电子设备及存储介质,属于计算机技术领域。方法包括:基于目标数量,从备选图像集合中选取目标图像组,为目标图像组中的每个目标图像生成第一类别标签,基于预设数量,从备选图像集合中选取参考图像组,根据为参考图像组中每个参考图像标注的类别标签,获取第一准确率,根据第一准确率,对目标数量进行调整,基于调整后的目标数量,继续从其他的备选图像集合中选取目标图像组,为目标图像组中的每个目标图像生成第一类别标签。该方法自动为目标图像生成第一类别标签,不需要进行人工标注,降低了成本,提高了生成效率。并且,通过调整目标数量,从备选图像集合中选取目标图像,提高了准确率。
-
公开(公告)号:CN110738267B
公开(公告)日:2023-08-22
申请号:CN201910995342.4
申请日:2019-10-18
Applicant: 北京达佳互联信息技术有限公司
IPC: G06V10/764 , G06F16/55
Abstract: 本公开关于一种图像分类方法、装置、电子设备及存储介质,涉及计算机技术领域,所述方法包括:将目标图像输入预设数目个图像分类模型,获取预设数目个图像分类模型输出的预设数目个标签,确定预设数目个标签的信息熵,若信息熵大于或者等于预设阈值,则确定预设数目个标签的上级标签为目标图像的分类标签。采用本公开,电子设备可以准确确定目标图像的分类标签,该分类标签可以准确体现目标图像的分类结果。
-
公开(公告)号:CN109858558B
公开(公告)日:2022-01-21
申请号:CN201910113211.9
申请日:2019-02-13
Applicant: 北京达佳互联信息技术有限公司
IPC: G06K9/62
Abstract: 本公开是关于一种分类模型的训练方法、装置、电子设备及存储介质。该训练方法中,预先将各个样本数据的分类标签,按照语义划分为具有上下位关系的至少两个层级;确定待训练的分类模型所需训练阶段的目标数量;在每一训练阶段,确定该训练阶段对应的目标层级,利用样本数据集中,目标层级的分类标签对应的样本数据,对分类模型进行训练,在满足预定收敛条件时,结束该训练阶段的训练过程;其中,目标数量个训练阶段中,至少有两个训练阶段所对应的目标层级不相同;在最后一个训练阶段结束后,完成对分类模型的训练。本公开提供的分类模型的训练方法,可以在将样本数据的分类标签之间的上下位关系考虑在内的前提下,实现对分类模型的有效训练。
-
公开(公告)号:CN110070143B
公开(公告)日:2021-07-16
申请号:CN201910356202.2
申请日:2019-04-29
Applicant: 北京达佳互联信息技术有限公司
IPC: G06K9/62
Abstract: 本公开是关于一种获取训练数据的方法、装置、设备及存储介质,方法包括:获取目标训练数据子集,目标训练数据子集为初始训练数据集的多个训练数据子集中的任意一个;在初始训练数据集的训练数据子集中,获取除目标训练数据子集之外的第一参考数量个训练数据子集;在第一参考数量个训练数据子集中,获取每一个训练数据子集中第二参考数量个训练数据,得到第一参考数量组的训练数据;将第一参考数量组的训练数据添加到目标训练数据子集中,基于更新后的目标训练数据子集及初始训练数据集中剩余的训练数据子集获取用于对机器学习模型进行训练的目标训练数据。本申请可提高模型的识别准确率,减少获取训练数据的时间成本。
-
-
-
-
-
-
-
-
-