-
公开(公告)号:CN112001345A
公开(公告)日:2020-11-27
申请号:CN202010893758.8
申请日:2020-08-31
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及一种基于特征变换度量网络的少样本人体行为识别方法及系统,包括:对多个原始视频进行特征图提取,得到各原始视频的空间特征图;并划分成支持特征图和查询特征图;根据支持特征图和查询特征图,得到变换支持特征图和变换查询特征图;进而得到特征度量距离;根据特征度量距离及查询视频的行为类别,建立识别模型;根据识别模型及待识别视频,确定待识别视频对应的行为类别。本发明基于特征变换网络,通过将特征转移到行为类别中心的偏移位置,能够减小特征类内距离及增大特征类间差异,极大地减小分类难度;并进一步基于特征度量网络,可提高特征度量的精确度,从而可提高少样本人体行为识别精度。
-
公开(公告)号:CN111352954A
公开(公告)日:2020-06-30
申请号:CN202010110929.5
申请日:2020-02-20
Applicant: 中国科学院自动化研究所
IPC: G06F16/2455 , G06F16/2458 , G06F16/28
Abstract: 本发明属于数据挖掘领域,具体涉及一种低资源条件下的关联规则挖掘方法、系统、装置,旨在解决现有的关联规则挖掘方法无法在低内存下完整的低频关联规则的挖掘的问题。本系统方法包括:获取待挖掘关联规则的数据集,对数据集各事务中的项进行数字化编码;获取高频频繁项集和高频关联规则;构建第一低频频繁项集和第二低频频繁项集;基于第一低频频繁项集、第二低频频繁项集,通过setdiff函数得到第三低频频繁项集,并根据第三低频频繁项集获取低频关联规则;输出高频关联规则、低频关联规则。本发明能够在低内存条件下挖掘完整的低频关联规则。
-
公开(公告)号:CN107027051B
公开(公告)日:2019-11-08
申请号:CN201610596600.8
申请日:2016-07-26
Applicant: 中国科学院自动化研究所
IPC: H04N21/234 , H04N21/44
Abstract: 本发明公开了一种基于线性动态系统的视频关键帧提取方法,该方法包括以下步骤:步骤1,收集待处理的视频数据文件;步骤2,初始化一个视频片段,计算所述视频片段的线性动态系统模型参数,根据模型参数计算视频片段的重构误差;步骤3,逐帧增加所述视频片段的长度,重复步骤2直到重构误差超过预设的阈值;步骤4,将最后确定的视频片段的中间帧作为该片段的关键帧;步骤5,在前一个视频片段后初始化下一个新的视频片段,重复步骤2至步骤4直到所述视频数据文件结束。本发明可以显著提高关键帧在语义内容上的描述能力,可以应用在互联网视频内容检索、敏感视频检测与过滤以及智能视频监控等业务中。
-
公开(公告)号:CN110209824A
公开(公告)日:2019-09-06
申请号:CN201910510457.X
申请日:2019-06-13
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于模式识别技术领域,具体涉及了一种基于组合模型的文本情感分析方法、系统、装置,旨在解决无法有效结合文本的双向序列和结构化信息,文本情感分析不够全面、准确的问题。本发明方法包括:采用词向量词典对文本查表,获得文本每个词的词向量;对词的位置信息进行编码,并与相应词向量相加,获得文本的句子表示;采用双向编码表示器,提取文本的深度双向特征表示;采用多核卷积神经网络提取文本的深度双向特征表示的句子结构信息;对文本的句子结构信息分类得到待判断情感文本的情感类别。本发明能够有效的提取文本的双向序列特性以及结构特征,能够对文本情感进行更为全面的分析,并且网络可以并行训练,能够大大缩减训练时间。
-
公开(公告)号:CN104992168B
公开(公告)日:2019-01-08
申请号:CN201510451096.8
申请日:2015-07-28
Applicant: 中国科学院自动化研究所
IPC: G06K9/00
Abstract: 本发明公开了一种基于图核的人体行为识别方法,根据视频序列中局部特征之间的时空关系,构建视频共生图和视频因果图,度量多个视频序列中所频共生图之间的相似性以及视频因果图之间的相似性,将视频共生图之间的相似性以及视频因果图之间的相似度累加,得到视频序列相似度,根据视频序列相似度训练支持向量机,根据支持向量机识别待测视频序列中的人体行为。本发明能够有效地利用局部特征之间的时空分布关系,进行人体行为识别。
-
公开(公告)号:CN108921002A
公开(公告)日:2018-11-30
申请号:CN201810367115.2
申请日:2018-04-23
Applicant: 中国科学院自动化研究所
IPC: G06K9/00
Abstract: 本发明涉及计算机视频分类领域,提出了一种基于多线索融合的暴恐音视频识别方法,旨在解决音视频识别中,单一媒体模态分析音视频造成的大量误检和漏检问题。该方法包括:对用于进行暴恐识别的待检测音视频进行分割,提取音频帧序列和视频帧序列;按照预先指定的检测顺序检测所述音频帧序列和视频帧序列中是否包含暴恐信息;如果所述音频帧序列和/或视频序帧列包含暴恐信息,确定所述待检测音视频为暴恐音视频。本发明基于多个线索对音视频进行分级检测,能够快速、准确的从大量的音视频中识别出暴恐视频。
-
公开(公告)号:CN108734106A
公开(公告)日:2018-11-02
申请号:CN201810366397.4
申请日:2018-04-23
Applicant: 中国科学院自动化研究所
IPC: G06K9/00
Abstract: 本发明涉及视频分类领域,提出了一种基于对比的快速暴恐视频识别方法,旨在解决在基于视觉特征的暴恐视频识别中由于特征描述子描述能力有限,所造成的暴恐视频识别的准确率(precious)和召回率(recall)相对较低问题。该方法包括:对用于进行暴恐识别的待检测视频进行镜头分割以选取待检测视频的关键帧;利用预先构建的暴恐视频识别模型,对该待检测视频的各关键帧进行哈希码运算,得到各上述关键帧的哈希码;将各上述关键帧的哈希码分别与预存暴恐视频的视频帧的哈希码比较,确定出与各上述关键帧相似的视频帧;如果与各上述关键帧相似的视频帧的数目超过设定阈值,确定该待检测视频为暴恐视频。本发明能够快速、准确的从大量的视频中识别出暴恐视频。
-
公开(公告)号:CN108664902A
公开(公告)日:2018-10-16
申请号:CN201810367098.2
申请日:2018-04-23
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及视频分类领域,提出了一种基于深度学习的端到端的视频拷贝检测方法,旨在解决在视频拷贝检测中,两段视频中存在多处拷贝片段的检测困难,及无法准确定位拷贝视频片段的位置等问题。该方法的具体实施方式包括:对用于进行视频拷贝检测的两段待检测视频进行镜头分割以选取关键帧;利用预先构建的拷贝关系识别模型对所选取出的多个关键帧进行识别,确定各关键帧之间的拷贝关系;根据所得到的各关键帧之间的拷贝关系,构建两段上述待检测视频全部关键帧的贝关系矩阵;将该拷贝关系矩阵作为预先构建的定位识别模型的输入,定位两段所述待检测视中含有拷贝关系的片段。本发明能够快捷、高效地检测出两段视频中存在的多处拷贝关系的视频片段。
-
公开(公告)号:CN104657468B
公开(公告)日:2018-07-31
申请号:CN201510075140.X
申请日:2015-02-12
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供种基于图像与文本的视频的快速分类方法,所述方法包括:分别关联多个视频的图像与多个视频类型、以及多个视频的文本与多个视频类型,从而生成对应视频类型的图像训练集及文本训练集;在每个所述图像训练集上分别提取图像特征信息进行训练从而创建图像预测模型,以及在每个所述文本训练集上提取文本特征信息进行训练从而创建文本预测模型;分别提取待检测的视频的图像特征信息在所述图像预测模型上和提取待检测的视频的文本特征信息在所述文本预测模型上进行预测,并对两个预测结果执行或运算作为检出类型。本发明所述方法能够实现对视频的快速分类。
-
公开(公告)号:CN103838835B
公开(公告)日:2017-11-21
申请号:CN201410064902.1
申请日:2014-02-25
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明公开了一种新的网络敏感视频检测方法,该方法包括:收集网络视频并提取其周边的文本,然后提取出网络视频中的视频特征和文本特征,视频特征包含音频特征和视觉特征,视频特征以及文本特征构成网络视频的特征集合;依次人工标定视频是敏感的还是不敏感的;通过考虑视音频特征的质量因子并利用提取的特征集计算出词汇之间的内容丰富相似度,加上之前提取的文本特征一起构建分类器核,利用上面得到的分类器核,通过改进的支持向量机算法来训练网络敏感视频分类器,最后分类的时候仅提取测试样本的文本特征作为预测输入数据。本发明可以应用在互联网中的有害视频过滤中,可以有效的维护计算机网络的内容健康和安全。
-
-
-
-
-
-
-
-
-