基于时间关联交互融合的网络社区帖子影响排序方法

    公开(公告)号:CN106886561A

    公开(公告)日:2017-06-23

    申请号:CN201611249593.0

    申请日:2016-12-29

    Inventor: 胡卫明 游强 吴偶

    CPC classification number: G06F16/3346 G06F16/31 G06F16/3344

    Abstract: 本发明涉及一种基于时间关联交互融合的网络社区帖子影响排序方法。该方法包括:确定基于时间关联的影响排序;根据文本语义模型,对帖子的文本内容进行语义建模,构建基于语义上下文相似度的语义树;按照统一的交互融合算法,将帖子的文本语义和网络社区的结构信息融合在一起,对帖子的影响进行排序。通过将时间关联信息融入排序方法中,形成时间关联影响排序的方式,在此基础上实现了结合语义和网络社区结构的统一融合框架,将网络结构和文本内容融合在一起,从而解决了网络社区中潜在影响源的发现问题,能够充分利用网络社区帖子的所显示的时间信息和语义上下文信息。

    一种对重复视频进行检测的方法

    公开(公告)号:CN103631932B

    公开(公告)日:2017-03-01

    申请号:CN201310655669.X

    申请日:2013-12-06

    Inventor: 胡卫明 李璇 李兵

    Abstract: 本发明公开了一种对重复视频进行检测的方法,该方法包括以下步骤:对数据库中的所有视频进行帧采样,提取每个视频的关键帧,以获取相应视频的关键信息;对提取得到的视频关键帧的局部特征和全局特征分别进行分析得到局部分析特征和全局分析特征;对局部分析特征和全局分析特征进行融合,得到一个对于视频变换鲁棒的索引特征,用于进行视频重复性检测;利用索引特征对于待检测视频进行重复视频的检测。利用本发明,可以快速高效的检测出重复视频。

    基于判别性示例选择多示例学习的恐怖视频识别方法

    公开(公告)号:CN103413125B

    公开(公告)日:2016-08-17

    申请号:CN201310376064.7

    申请日:2013-08-26

    Abstract: 本发明公开一种基于判别性示例选择多示例学习的恐怖视频识别方法。该方法包括:提取训练视频集中每个视频的视频镜头,针对每个视频镜头选取情感代表帧和情感突变帧表示该镜头;提取对每个镜头的音频和视频特征作为视频示例,组成视频示例集合;从所述视频示例集合中选择出判别性视频示例;计算训练视频集合中每个视频示例与所述判别性视频示例之间的相似性距离,得到特征向量集合;将待识别视频的特征向量与训练视频集合对应的特征向量集合进行稀疏重构,根据重构误差识别视频的类别。本发明提出了一种新的基于判别性示例选择的多示例学习模型应用到恐怖电影场景识别中,该技术具有重要的学术意义和社会意义,并具有广阔的应用前景。

    血腥图像检测分类器实现方法、血腥图像检测方法和系统

    公开(公告)号:CN105760885A

    公开(公告)日:2016-07-13

    申请号:CN201610098457.X

    申请日:2016-02-22

    Inventor: 胡卫明 高岩 吴偶

    CPC classification number: G06K9/6267 G06K9/6223

    Abstract: 本发明公开了一种血腥图像检测分类器实现方法、血腥图像检测方法和血腥图像检测系统。其中,血腥图像检测分类器实现方法包括获取训练样本集,其中,所述训练样本为血腥图像;提取所述血腥图像的颜色特征、纹理特征和形状特征;对所述颜色特征、所述纹理特征和所述形状特征进行聚类,得到聚类中心为视觉的单词,并构建视觉词包模型;基于所述颜色特征、所述纹理特征和所述形状特征及视觉词包模型,对所述颜色特征、所述纹理特征和所述形状特征分配权重,训练最优血腥图像检测分类器。通过本发明实施例解决了如何快速准确地识别血腥图像的技术问题。

    一种基于成分距离关系图的视频目标跟踪方法

    公开(公告)号:CN103646407B

    公开(公告)日:2016-06-22

    申请号:CN201310739297.9

    申请日:2013-12-26

    Abstract: 本发明公开了一种基于成分距离关系图特征的目标跟踪方法,其包括:步骤1、对于待跟踪目标所在的视频,采用粒子滤波方法采样一定数目的粒子,作为候选目标状态;步骤2、对于每个所述候选目标状态对应的表观,构建成分距离关系图特征向量;步骤3、根据所述成分距离关系图特征向量得到表示整个待跟踪目标表观的矩阵,并计算所述表示整个待跟踪目标表观的矩阵到2D PCA(二维主成分分析)子空间的距离;步骤4、根据所述距离获得每个候选目标状态的评价值,将最大评价值对应的候选目标状态作为目标的跟踪状态;步骤5、更新2D PCA子空间,并进行下一帧目标的跟踪。

    一种基于海报与剧情介绍的电影类型的快速分类方法

    公开(公告)号:CN105260398A

    公开(公告)日:2016-01-20

    申请号:CN201510592018.X

    申请日:2015-09-17

    CPC classification number: G06F17/30781 G06F17/30705 G06K9/4652 G06K9/6269

    Abstract: 本发明公开了一种基于海报与剧情介绍的电影类型的快速分类方法,该方法包括:确定电影所属的类型集合,建立各种类型的电影的海报训练集和剧情介绍的训练集;提取待测电影的海报的特征,利用得到的每幅海报的特征及其对应的标签训练支持向量机得到海报的分类模型;提取待测电影的剧情介绍的文本的特征,利用得到的每个文本的特征及其对应的标签训练支持向量机得到文本的分类模型;用海报的分类模型,对待测的电影的海报进行预测得到结果Y1,然后再调用文本的分类模型对待测电影的剧情介绍进行预测得到结果Y2;最后将Y1和Y2进行“或“操作,得到最后的待测电影的类型。本发明能够在没有电影视频的情况下,对电影的类型实现快速、高准确率的预测。

    一种基于内容的恐怖文本识别方法

    公开(公告)号:CN103942191A

    公开(公告)日:2014-07-23

    申请号:CN201410171360.8

    申请日:2014-04-25

    Abstract: 本发明公开了一种基于内容的恐怖文本识别方法,该方法包括:首先,对需要识别的文本进行预处理,以消除错误数据和冗余数据对识别结果的消极影响;其次,构建基于内容的文本分类器模型,该模型能够分别利用文本标题分类器和文本内容分类器对文本标题和文本内容进行独立识别,然后将两种识别结果进行决策融合,最终得出识别结果;最后,将格式化后的待识别文本数据作为基于文本分类器模型的输入,该模型的输出即为文本的识别结果。该方法在实验数据库上能够取得良好的实验效果,其识别结果具有较高的可靠性和稳定性。

    一种基于上下文稀疏表示的恐怖视频识别方法及装置

    公开(公告)号:CN103854014A

    公开(公告)日:2014-06-11

    申请号:CN201410065197.7

    申请日:2014-02-25

    Abstract: 本发明公开了一种基于上下文稀疏表示的恐怖视频识别方法及装置,该方法包括:对训练视频样本进行镜头分割,然后针对每个镜头选取一幅关键帧来代表该镜头;提取每个关键帧的视觉特征,并提取整个训练视频样本的音频特征;建立起每一个训练视频样本内部各个关键帧之间的上下文关系图;提取待识别视频的视觉特征、音频特征;构建待识别视频与训练视频样本之间的代价矩阵;基于上下文稀疏表示模型,利用所有训练视频样本对所述待识别视频进行重构,重构误差最小的训练视频样本的类别即为待识别视频的类别;其中所述上下文稀疏表示模块以所述训练视频样本的上下文关系图作为稀疏表示的词典,并利用所述代价矩阵对其进行约束。

    一种基于多示例学习的恐怖视频场景识别方法

    公开(公告)号:CN102509084B

    公开(公告)日:2014-05-07

    申请号:CN201110369289.0

    申请日:2011-11-18

    Abstract: 本发明公开了一种基于多示例学习算法的视频恐怖场景识别方法。该方法包含:对视频场景进行镜头分割和关键帧选取,视频场景对应于多示例学习的“包”,镜头对应“包”中的示例,基于镜头和关键帧分别提取视觉特征、音频特征和颜色情感特征组成特征空间,在特征空间中训练相应的多示例学习分类器;对于一个待测试的视频样本,通过结构化分析,提取相关特征,通过训练的分类器的来预测视频样本的类别:恐怖或非恐怖。本发明提出了一种新的颜色情感特征并把此特征应用到恐怖电影场景识别方法中,该方法具有广阔的应用前景。

    一种基于成分距离关系图的视频目标跟踪方法

    公开(公告)号:CN103646407A

    公开(公告)日:2014-03-19

    申请号:CN201310739297.9

    申请日:2013-12-26

    Abstract: 本发明公开了一种基于成分距离关系图特征的目标跟踪方法,其包括:步骤1、对于待跟踪目标所在的视频,采用粒子滤波方法采样一定数目的粒子,作为候选目标状态;步骤2、对于每个所述候选目标状态对应的表观,构建成分距离关系图特征向量;步骤3、根据所述成分距离关系图特征向量得到表示整个待跟踪目标表观的矩阵,并计算所述表示整个待跟踪目标表观的矩阵到2D PCA(二维主成分分析)子空间的距离;步骤4、根据所述距离获得每个候选目标状态的评价值,将最大评价值对应的候选目标状态作为目标的跟踪状态;步骤5、更新2D PCA子空间,并进行下一帧目标的跟踪。

Patent Agency Ranking