-
公开(公告)号:CN111177462A
公开(公告)日:2020-05-19
申请号:CN202010005825.8
申请日:2020-01-03
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06F16/735 , G06F16/78 , G06F16/783 , G06F40/211
Abstract: 本申请公开了视频分发时效确定方法和装置,涉及数据处理技术。具体实现方案为:对待分发视频进行解析,得到所述待分发视频的视频相关信息;根据所述视频相关信息,确定所述待分发视频的时效周期,所述时效周期用于表示所述待分发视频对应的有效时长;根据所述待分发视频的首发时间和所述时效周期,确定所述待分发视频的时效结束时间。和现有技术相比,不依赖审核人员的时效性标注经验,因此,不受审核人员主观因素干扰,标注质量稳定,也无需对审核人员进行培训,节省了人力物力,同时也提升了视频时效的确定效率。
-
公开(公告)号:CN103294781A
公开(公告)日:2013-09-11
申请号:CN201310177865.0
申请日:2013-05-14
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06F17/30
Abstract: 本发明的目的是提供一种用于处理页面数据的方法与设备,具体地,获取待处理的目标页面;根据与所述目标页面的页面类型相对应的多个属性分类模型,确定所述目标页面中的页面节点的节点属性信息;根据所述节点属性信息,对所述页面节点进行相应的数据处理。其中,与现有技术相比,本发明通过根据与待处理的目标页面的页面类型相对应的多个属性分类模型,确定所述目标页面中的页面节点的节点属性信息,进而根据所述节点属性信息,对所述页面节点进行相应的数据处理,实现了根据页面类型对应的多个属性分类模型来提取页面数据,不依赖于页面类型的站点数,提高了提取页面数据的效率。
-
公开(公告)号:CN113011345B
公开(公告)日:2024-03-05
申请号:CN202110304851.5
申请日:2021-03-11
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06V40/16 , G06V20/40 , G06V10/774 , G06T7/00 , G06V10/82 , G06N3/0464
Abstract: 本申请提供了一种图像质量检测方法、装置、电子设备、可读存储介质,涉及计算机技术领域,具体涉及信息流和计算机视觉技术领域。具体实现方案为:提取待检测图像中所有人物的人物信息;基于人物信息确定各个人物在待检测图像中的重要性,获得第一检测结果;基于人脸截断模型和人物信息判断各个人物是否发生人脸截断,获得第二检测结果;其中,人脸截断模型是利用存在人脸截断的图像作为训练样本获得的模型;基于第一检测结果和第二检测结果获得待检测图像的质量检测结果。该方法可以使图像质量的检测结果更准确。
-
公开(公告)号:CN114241243B
公开(公告)日:2023-04-25
申请号:CN202111565672.3
申请日:2021-12-20
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06V10/764 , G06V10/774 , G06V10/84
Abstract: 本公开提供了一种图像分类模型的训练方法、装置、电子设备和存储介质,涉及人工智能领域,具体涉及深度学习领域和图像处理领域,可应用于异常图像的检测场景等。图像分类模型的训练方法包括:采用已标注数据集对图像分类模型进行训练,得到初始模型;迭代地执行以下更新操作,直至更新后的初始模型达到收敛条件:采用初始模型从未标注数据中获得备选扩充数据;以及根据备选扩充数据更新已标注数据集和初始模型;其中,图像分类模型的训练方法还包括在在迭代地执行更新操作的过程中:确定针对标注类别的预测概率低于第一预定概率的目标数据;以及周期性地采用目标数据更新已标注数据集。
-
公开(公告)号:CN114926847A
公开(公告)日:2022-08-19
申请号:CN202111478344.X
申请日:2021-12-06
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06V30/40 , G06F40/263 , G06K9/62 , G06V30/246 , G06V10/74 , G06V10/764
Abstract: 本公开提供了一种少数类语言的图像处理方法、装置、设备和存储介质,涉及人工智能技术领域,具体为自然语言处理、深度学习技术领域。具体实现方案为:获取少数类语言中的少数类字符元素;采用所述少数类字符元素构建少数类伪文本;将所述少数类伪文本转换为图像格式,并根据图像转换结果得到少数类语言图像。本公开实施例能够对少数类语言的处理效率。
-
公开(公告)号:CN114333038A
公开(公告)日:2022-04-12
申请号:CN202210200453.3
申请日:2022-03-03
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06V40/16 , G06V10/26 , G06V10/74 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本公开提供了一种对象识别模型的训练方法和对象识别方法、装置、电子设备和存储介质,涉及人工智能领域,具体涉及计算机视觉领域和深度学习领域,可应用于人脸识别和内容审核等场景下。对象识别模型的训练方法的具体实现方案为:检测包括完整结构的目标对象的第一样本图像,得到目标对象的关键点信息;根据关键点信息裁剪第一样本图像,得到针对目标对象的多个区域图像,每个区域图像包括目标对象的残缺结构;将多个区域图像分别与预定背景图像融合,得到多个第二样本图像;以及根据多个第二样本图像对目标检测模型进行训练。
-
公开(公告)号:CN113705370A
公开(公告)日:2021-11-26
申请号:CN202110909967.1
申请日:2021-08-09
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本公开公开了直播间违规行为的检测方法、装置、电子设备和存储介质,涉及互联网移动端应用技术领域。在对待检测视频进行抽帧,得到若干个视频帧后,再将若干个视频帧依次输入违规行为检测模型,以确定视频帧中是否存在违规行为,并对违规行为进行异常标记,若根据第一视频帧的异常标记确定第一视频帧存在第一违规行为,根据第二视频帧的异常标记确认第二视频帧是否存在第二违规行为,其中,第二视频帧为若干视频帧中第一视频帧的上一视频帧,最后在确定第二视频帧存在第二违规行为后,根据第一违规行为及第二违规行为确定待检测视频存在直播间违规行为,该检测方法通过多帧融合机制,确保了直播间违规行为检测的准确率。
-
公开(公告)号:CN113076932B
公开(公告)日:2023-08-04
申请号:CN202110470368.4
申请日:2021-04-28
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本公开公开了训练音频语种识别模型的方法、视频检测方法及其装置,涉及人工智能领域,尤其涉及深度学习领域。具体实现方案为:从人声音频文件中获取多个音频片段;基于多个音频片段中包含非目标语种语音的音频片段,确定用于训练音频语种识别模型的第一样本数据集;基于多个音频片段中包含目标语种语音的音频片段,确定用于训练音频语种识别模型的第二样本数据集;以及基于第一样本数据集和第二样本数据集,训练音频语种识别模型。以此方式,本公开的技术方案可以快速高效且低成本地完成对音频语种识别模型的训练,从而准确确定待测视频文件的检测结果。
-
公开(公告)号:CN114241374A
公开(公告)日:2022-03-25
申请号:CN202111530235.8
申请日:2021-12-14
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本公开提供了直播处理模型的训练方法和装置、直播处理方法和装置,涉及人工智能领域,尤其涉及计算机视觉和深度学习领域。具体实现方案为:从直播图像中提取候选样本图像;采用直播处理模型,对所述候选样本图像进行处理得到候选样本图像的处理结果;所述直播处理模型包括直播检测模型和直播分类模型,所述候选样本图像的处理结果包括候选样本图像的检测结果和分类结果;根据所述候选样本图像的处理结果,从所述候选样本图像中确定目标样本图像,并采用所述目标样本图像对所述直播处理模型进行训练。本公开可以提高对直播处理模型的训练效率和识别准确度。
-
公开(公告)号:CN114241243A
公开(公告)日:2022-03-25
申请号:CN202111565672.3
申请日:2021-12-20
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06V10/764 , G06V10/774 , G06K9/62
Abstract: 本公开提供了一种图像分类模型的训练方法、装置、电子设备和存储介质,涉及人工智能领域,具体涉及深度学习领域和图像处理领域,可应用于异常图像的检测场景等。图像分类模型的训练方法包括:采用已标注数据集对图像分类模型进行训练,得到初始模型;迭代地执行以下更新操作,直至更新后的初始模型达到收敛条件:采用初始模型从未标注数据中获得备选扩充数据;以及根据备选扩充数据更新已标注数据集和初始模型;其中,图像分类模型的训练方法还包括在在迭代地执行更新操作的过程中:确定针对标注类别的预测概率低于第一预定概率的目标数据;以及周期性地采用目标数据更新已标注数据集。
-
-
-
-
-
-
-
-
-