-
公开(公告)号:CN105260398A
公开(公告)日:2016-01-20
申请号:CN201510592018.X
申请日:2015-09-17
Applicant: 中国科学院自动化研究所
CPC classification number: G06F17/30781 , G06F17/30705 , G06K9/4652 , G06K9/6269
Abstract: 本发明公开了一种基于海报与剧情介绍的电影类型的快速分类方法,该方法包括:确定电影所属的类型集合,建立各种类型的电影的海报训练集和剧情介绍的训练集;提取待测电影的海报的特征,利用得到的每幅海报的特征及其对应的标签训练支持向量机得到海报的分类模型;提取待测电影的剧情介绍的文本的特征,利用得到的每个文本的特征及其对应的标签训练支持向量机得到文本的分类模型;用海报的分类模型,对待测的电影的海报进行预测得到结果Y1,然后再调用文本的分类模型对待测电影的剧情介绍进行预测得到结果Y2;最后将Y1和Y2进行“或“操作,得到最后的待测电影的类型。本发明能够在没有电影视频的情况下,对电影的类型实现快速、高准确率的预测。
-
公开(公告)号:CN103942191A
公开(公告)日:2014-07-23
申请号:CN201410171360.8
申请日:2014-04-25
Applicant: 中国科学院自动化研究所
IPC: G06F17/27
Abstract: 本发明公开了一种基于内容的恐怖文本识别方法,该方法包括:首先,对需要识别的文本进行预处理,以消除错误数据和冗余数据对识别结果的消极影响;其次,构建基于内容的文本分类器模型,该模型能够分别利用文本标题分类器和文本内容分类器对文本标题和文本内容进行独立识别,然后将两种识别结果进行决策融合,最终得出识别结果;最后,将格式化后的待识别文本数据作为基于文本分类器模型的输入,该模型的输出即为文本的识别结果。该方法在实验数据库上能够取得良好的实验效果,其识别结果具有较高的可靠性和稳定性。
-
公开(公告)号:CN103854014A
公开(公告)日:2014-06-11
申请号:CN201410065197.7
申请日:2014-02-25
Applicant: 中国科学院自动化研究所
IPC: G06K9/00
Abstract: 本发明公开了一种基于上下文稀疏表示的恐怖视频识别方法及装置,该方法包括:对训练视频样本进行镜头分割,然后针对每个镜头选取一幅关键帧来代表该镜头;提取每个关键帧的视觉特征,并提取整个训练视频样本的音频特征;建立起每一个训练视频样本内部各个关键帧之间的上下文关系图;提取待识别视频的视觉特征、音频特征;构建待识别视频与训练视频样本之间的代价矩阵;基于上下文稀疏表示模型,利用所有训练视频样本对所述待识别视频进行重构,重构误差最小的训练视频样本的类别即为待识别视频的类别;其中所述上下文稀疏表示模块以所述训练视频样本的上下文关系图作为稀疏表示的词典,并利用所述代价矩阵对其进行约束。
-
公开(公告)号:CN102509084B
公开(公告)日:2014-05-07
申请号:CN201110369289.0
申请日:2011-11-18
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于多示例学习算法的视频恐怖场景识别方法。该方法包含:对视频场景进行镜头分割和关键帧选取,视频场景对应于多示例学习的“包”,镜头对应“包”中的示例,基于镜头和关键帧分别提取视觉特征、音频特征和颜色情感特征组成特征空间,在特征空间中训练相应的多示例学习分类器;对于一个待测试的视频样本,通过结构化分析,提取相关特征,通过训练的分类器的来预测视频样本的类别:恐怖或非恐怖。本发明提出了一种新的颜色情感特征并把此特征应用到恐怖电影场景识别方法中,该方法具有广阔的应用前景。
-
公开(公告)号:CN103646407A
公开(公告)日:2014-03-19
申请号:CN201310739297.9
申请日:2013-12-26
Applicant: 中国科学院自动化研究所
IPC: G06T7/20
Abstract: 本发明公开了一种基于成分距离关系图特征的目标跟踪方法,其包括:步骤1、对于待跟踪目标所在的视频,采用粒子滤波方法采样一定数目的粒子,作为候选目标状态;步骤2、对于每个所述候选目标状态对应的表观,构建成分距离关系图特征向量;步骤3、根据所述成分距离关系图特征向量得到表示整个待跟踪目标表观的矩阵,并计算所述表示整个待跟踪目标表观的矩阵到2D PCA(二维主成分分析)子空间的距离;步骤4、根据所述距离获得每个候选目标状态的评价值,将最大评价值对应的候选目标状态作为目标的跟踪状态;步骤5、更新2D PCA子空间,并进行下一帧目标的跟踪。
-
公开(公告)号:CN103336957A
公开(公告)日:2013-10-02
申请号:CN201310303194.8
申请日:2013-07-18
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于时空特征的网络同源视频检测方法,该方法包括以下步骤:步骤1:对输入的待检测视频进行预处理,从而去除低信息帧或异常帧,并进行图中图检测;步骤2:将至少一个参考视频与预处理后的待检测视频进行视频片段分割,得到一系列的视频片段,每个视频片段由相等数目的连续帧组成;步骤3:分别对上述所有的视频片段提取时空特征数据;步骤4:采用局部敏感哈希方法对上述得到的时空特征数据进行有效索引以及搜索,从而匹配得到相似视频片段,并输出最终同源视频的信息。
-
公开(公告)号:CN103218608A
公开(公告)日:2013-07-24
申请号:CN201310139552.6
申请日:2013-04-19
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于多示例多特征的网络暴力视频识别方法,包括:从视频共享网站上抓取暴力视频与非暴力视频及其评论、简介构建一个视频数据训练集;从训练集的文本信息中提取文本特征组成文本特征向量来训练文本预分类器,该预分类器筛选出候选的暴力视频;采用基于自适应双阈值的镜头分割算法对所述候选的暴力视频的视频片段进行分割,对每一个镜头提取相关的视觉特征、音频特征来表示该镜头,每一个镜头是多示例学习的一个示例,视频片段是一个包;使用MILES算法将所述包转化为单示例,采用该特征向量训练分类器模型,采用该分类器模型对候选暴力视频进行分类。利用本发明,大大减轻了网络暴力视频不受限制传播的不良影响。
-
公开(公告)号:CN102831184A
公开(公告)日:2012-12-19
申请号:CN201210272225.3
申请日:2012-08-01
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明公开了一种根据对社会事件的文字描述来预测社会情感的方法及系统,该方法包括构建社会情感语料库;对所述社会情感语料库中的每一个样本进行所述面向情感标签排序的文本特征选择以得到数值型特征向量,建立训练集;构建情感标签序列的概率模型;在情感标签序列上构建标情感签序列损失函数,通过优化该损失函数,得到社会情感预测模型;将描述社会事件的文本输入所述预测模型,得到与该社会事件相对应的情感标签排序,所述情感标签排序表示对该社会事件所预测的社会情感。本发明能够有效地、精确地、自动地预测社会公众对社会事件的情感反应。
-
公开(公告)号:CN102509084A
公开(公告)日:2012-06-20
申请号:CN201110369289.0
申请日:2011-11-18
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于多示例学习算法的视频恐怖场景识别方法。该方法包含:对视频场景进行镜头分割和关键帧选取,视频场景对应于多示例学习的“包”,镜头对应“包”中的示例,基于镜头和关键帧分别提取视觉特征、音频特征和颜色情感特征组成特征空间,在特征空间中训练相应的多示例学习分类器;对于一个待测试的视频样本,通过结构化分析,提取相关特征,通过训练的分类器的来预测视频样本的类别:恐怖或非恐怖。本发明提出了一种新的颜色情感特征并把此特征应用到恐怖电影场景识别方法中,该方法具有广阔的应用前景。
-
公开(公告)号:CN101470731B
公开(公告)日:2012-06-20
申请号:CN200710304224.1
申请日:2007-12-26
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明一种可个性化定制的网页过滤方法,包括步骤:用户实例网页和训练网页库特征提取;基于半监督学习的用户兴趣类属性挖掘;用户兴趣类的特征提取和特征选择;基于贝叶斯分类器的个性化网页过滤。本发明提出了一种新型的实例驱动的网页过滤框架,用户的过滤需求通过网页实例来表达,用户实例可以是任何类型或者多类型复合的网页,并借助半监督学习构造出符合用户个性化需求的网页过滤器,克服了传统网页过滤方法仅限于过滤单一或有限类型网页,难以实现个性化定制的缺点。本发明并具有高精确度、鲁棒性和运行速度的优点,具有很好的应用前景。
-
-
-
-
-
-
-
-
-