跨样本虚假新闻视频的检测方法及系统

    公开(公告)号:CN116863366A

    公开(公告)日:2023-10-10

    申请号:CN202310659233.1

    申请日:2023-06-05

    Inventor: 曹娟 亓鹏 唐胜

    Abstract: 本发明提出一种跨样本虚假新闻视频的检测方法,包括:获取目标事件的新闻视频和辟谣视频,提取新闻视频的单样本特征为第一特征,提取该辟谣视频的单样本特征为第二特征;构建以该第一特征为节点和以该节点之间的重要性表示为边的事件图;以信息聚合获取该节点的节点特征,通过对该节点特征进行真假二分类,选出分类为真的节点特征所对应新闻视频为待测视频,以及分类为假的第一虚假视频;通过检测该第二特征与该待测视频的第一特征之间的事实信息冲突,选出该待测视频中的第二虚假视频,以该第一虚假视频和该第二虚假视频为虚假新闻视频。本发明还提出一种跨样本虚假新闻视频的检测系统,以及一种用于实现跨样本虚假新闻视频检测的数据处理装置。

    一种长尾目标检测方法与系统

    公开(公告)号:CN111832406B

    公开(公告)日:2022-12-06

    申请号:CN202010508103.4

    申请日:2020-06-05

    Abstract: 本发明提出的基于平衡分组Softmax的长尾目标检测方法与系统,该方法在网络结构上,改变网络的最后一个全连接层,对拥有不同训练样本数量的类别进行分组,将背景类别单独分为一组,在每组中都加入其它类别;在训练过程中,按照组内普通类别训练样本数量采样一定数量的其它类别样本进行训练,并在每个组内分别用Softmax函数激活并计算交叉熵损失;在测试过程中,在每个组内分别用Softmax函数激活,去掉组内其它类别,仅保留正常类别得分,用背景组的“其它”类别得分为所有正常类别加权,组成最终得分,用于后处理。该发明提升了在大规模长尾目标数据集上的目标检测以及实例分割性能。

    融合全局信息的场景分割修正方法与系统

    公开(公告)号:CN107564007B

    公开(公告)日:2020-09-11

    申请号:CN201710650525.3

    申请日:2017-08-02

    Inventor: 唐胜 张蕊 李锦涛

    Abstract: 本发明涉及一种场景分割修正方法,通过全局残差修正网络,以完全残差卷积网络作为前端模型,将该前端模型的置信度图和原始图像按通道拼接起来,作为该全局残差修正网络的输入,从而输出全局修正残差,将该全局修正残差与该置信度图相加,得到场景分割的修正结果;使用已知的场景分割数据集对该全局残差修正网络进行训练;使用已知的场景分割数据集对该全局残差修正网络进行训练。同时本发明还提出了将该全局残差修正网络和局部边界修正网络串联起来,形成级联的框架,该级联的框架可以对前端模型的分割结果进行全局修正和局部修正,从而得到更加精确的场景分割结果。

    一种基于目标检测的视觉目标检索方法与系统

    公开(公告)号:CN107515895B

    公开(公告)日:2020-06-05

    申请号:CN201710574741.4

    申请日:2017-07-14

    Abstract: 本发明涉及一种基于目标检测的视觉目标检索方法和系统,包括:采用IDF带权的交叉熵损失函数对公共目标检测数据集进行训练,生成初步目标检测模型;采用包含用户指定目标类型的检索数据集对初步目标检测模型进行微调,生成最终目标检测模型;通过最终目标检测模型对待检索图片中的视觉目标进行特征提取,生成待检索图片的多个卷积特征图,通过空间注意力矩阵将卷积特征图进行聚合,生成聚合特征向量,以在图片库中检索与聚合特征向量相匹配的图片。本发明通过将视觉目标检索与检测相关联,避免了候选窗口预测步骤,并通过选择性累加特征图得到注意力矩阵,将卷积层的局部描述子带权聚合成一个全局特征表达用于视觉目标检索,提高了检索速度和精度。

    一种生成描述图像内容的自然语言的方法与系统

    公开(公告)号:CN107918782A

    公开(公告)日:2018-04-17

    申请号:CN201711265210.3

    申请日:2017-12-05

    Abstract: 本发明提供了一种训练用于生成描述图像内容的自然语言的模型的方法,以及采用所述模型生成描述图像内容的自然语言的方法。其中,所述训练方法,包括:A1)将图像训练集中图像的全局特征以及局部特征作为注意力机制的输入,以获得同时包含全局特征以及局部特征的融合的结果;A2)将所述融合的结果和单词训练集作为长短记忆网络的输入,利用损失函数对所述注意力机制以及所述长短记忆网络进行训练,获得所述注意力机制的权值以及所述长短记忆网络的权值;其中,所述损失函数是已知图像的内容、以及描述所述图像内容的自然语句中前一个或多个单词时第i个单词的条件概率的函数,i=1,…imax。

    一种基于目标检测的视觉目标检索方法与系统

    公开(公告)号:CN107515895A

    公开(公告)日:2017-12-26

    申请号:CN201710574741.4

    申请日:2017-07-14

    Abstract: 本发明涉及一种基于目标检测的视觉目标检索方法和系统,包括:采用IDF带权的交叉熵损失函数对公共目标检测数据集进行训练,生成初步目标检测模型;采用包含用户指定目标类型的检索数据集对初步目标检测模型进行微调,生成最终目标检测模型;通过最终目标检测模型对待检索图片中的视觉目标进行特征提取,生成待检索图片的多个卷积特征图,通过空间注意力矩阵将卷积特征图进行聚合,生成聚合特征向量,以在图片库中检索与聚合特征向量相匹配的图片。本发明通过将视觉目标检索与检测相关联,避免了候选窗口预测步骤,并通过选择性累加特征图得到注意力矩阵,将卷积层的局部描述子带权聚合成一个全局特征表达用于视觉目标检索,提高了检索速度和精度。

    一种基于颜色对比度的局部区域检测子提取方法及系统

    公开(公告)号:CN104881669A

    公开(公告)日:2015-09-02

    申请号:CN201510243968.1

    申请日:2015-05-13

    CPC classification number: G06K9/4652

    Abstract: 本发明公开了一种基于颜色对比度的局部区域检测子提取方法及系统,涉及图像检索、图像识别、对象跟踪检测领域,该方法包括获取图像,并对所述图像的四个角进行尺度选择,通过二维信息熵值的局部极小值选取所述图像的图像背景的最佳尺度,根据所述最佳尺度,建立背景RGB三通道高斯混合模型;对所述图像中每个像素点建立RGB三通道高斯混合模型,并根据每个所述像素点的RGB三通道高斯混合模型与所述背景RGB三通道高斯混合模型的KL距离,更新所述图像的颜色对比度排序;根据所述颜色对比度排序,通过分水岭的区域检测方式检测对比度一致的区域,所述区域为所述局部区域检测子。本发明提取检测子速度快,内存占用少。

    色情检测模型建立方法和色情检测方法

    公开(公告)号:CN101819638B

    公开(公告)日:2012-07-11

    申请号:CN201010143777.5

    申请日:2010-04-12

    Abstract: 本发明提供一种色情检测模型建立方法,包括:从带有标注信息的样本音视频对象中提取视频特征和音频特征;根据所述标注信息,为所述样本音视频对象中的各类音频特征、视频特征分别训练模型,然后利用基于排序的加权平均融合方法计算所述模型间的融合参数;其中,所述的基于排序的加权平均融合方法遍历参数orness的取值区间,为所述参数orness的各个取值计算相应的融合参数,然后利用所述样本音视频对象计算各个融合参数的效果,选取效果最好的融合参数作为模型间的融合参数。本发明的色情检测方法与现有技术中的相关方法相比综合采用了视频特征与音频特征,检测准确率上有较大的提高。

    一种基于时空条带模式分析的新闻主播镜头检测方法

    公开(公告)号:CN101316328A

    公开(公告)日:2008-12-03

    申请号:CN200710099726.5

    申请日:2007-05-29

    Abstract: 本发明公开了一种基于时空条带模式分析的新闻主播检测方法,包括:从经过编辑的新闻视频中截取连续的N帧作为一组,并提取水平时空条带和垂直时空条带;提取水平时空条带和垂直时空条带中所对应的图像特征,得到相应的特征向量;通过聚类方法对特征向量分别聚类,并将同一类中时间连续的水平或垂直时空条带分别合并,作为类中的新元素,得到最终的水平聚类结果和垂直聚类结果;将水平聚类结果中包含有最多元素的类和垂直聚类结果中包含有最多元素的类进行融合,根据融合结果检测新闻主播镜头。本发明的优点是对各类新闻视频主播检测准确率高,通用性强,计算复杂度低。避免了现有方法过于依赖准确的镜头分割和其他模态信息的缺点。

Patent Agency Ranking