-
公开(公告)号:CN105138953A
公开(公告)日:2015-12-09
申请号:CN201510405296.X
申请日:2015-07-09
Applicant: 浙江大学
IPC: G06K9/00
CPC classification number: G06K9/00335 , G06K9/00718
Abstract: 本发明公开了一种基于连续的多实例学习的视频中动作识别的方法。本发明包括如下步骤:1、从视频网站上收集电影数据作为训练数据样本集,同时对网站上收集字幕和剧本进行预处理,将剧本中的动作描述作为训练数据的视频级别的弱标记;2、通过弱标记将视频切分成多个视频片段,每个视频片段由一个动作组成;对于每个动作,利用视频片段训练基于连续的多实例学习的动作分类器;3、用户将待识别视频输入至训练好的多个动作分类器,计算待识别视频的每一帧属于该动作的概率;4、通过视频切割模型得到每一帧的动作类别,将动作类别返回给用户。本发明减少了人工标记费时费力的问题,同时减少了弱标记和转折帧带来的二义性问题。
-
公开(公告)号:CN105787049B
公开(公告)日:2019-07-16
申请号:CN201610109051.7
申请日:2016-02-26
Applicant: 浙江大学
IPC: G06F16/78 , G06F16/738 , G06F16/36 , G06K9/62
Abstract: 一种基于多源信息融合分析的网络视频热点事件发现方法。包括:1)采集有多源信息的网络视频;2)将网络视频的多源信息结构化为描述性关键字标签;3)根据步骤2)得到的网络视频语义结构化关键字标签与用户定义的敏感词字典的匹配度,得到网络视频的主观敏感度参数;4)根据网络视频中多源信息的点击率、时间字段,得到网络视频的客观热度参数;5)根据步骤3)得到的主观敏感度参数,建立网络视频敏感度预测模型,预测新网络视频的主观敏感度;6)根据步骤4)得到的客观热度参数,建立网络视频热度预测模型,预测新网络视频的客观热度;7)选取主观敏感度和客观热度加权求和在网络视频集中排名靠前的视频作为热点视频。
-
公开(公告)号:CN105138953B
公开(公告)日:2018-09-21
申请号:CN201510405296.X
申请日:2015-07-09
Applicant: 浙江大学
IPC: G06K9/00
Abstract: 本发明公开了一种基于连续的多实例学习的视频中动作识别的方法。本发明包括如下步骤:1、从视频网站上收集电影数据作为训练数据样本集,同时对网站上收集字幕和剧本进行预处理,将剧本中的动作描述作为训练数据的视频级别的弱标记;2、通过弱标记将视频切分成多个视频片段,每个视频片段由一个动作组成;对于每个动作,利用视频片段训练基于连续的多实例学习的动作分类器;3、用户将待识别视频输入至训练好的多个动作分类器,计算待识别视频的每一帧属于该动作的概率;4、通过视频切割模型得到每一帧的动作类别,将动作类别返回给用户。本发明减少了人工标记费时费力的问题,同时减少了弱标记和转折帧带来的二义性问题。
-
公开(公告)号:CN105787049A
公开(公告)日:2016-07-20
申请号:CN201610109051.7
申请日:2016-02-26
Applicant: 浙江大学
CPC classification number: G06F16/739 , G06F16/36 , G06F16/78 , G06K9/6269
Abstract: 一种基于多源信息融合分析的网络视频热点事件发现方法。包括:1)采集有多源信息的网络视频;2)将网络视频的多源信息结构化为描述性关键字标签;3)根据步骤2)得到的网络视频语义结构化关键字标签与用户定义的敏感词字典的匹配度,得到网络视频的主观敏感度参数;4)根据网络视频中多源信息的点击率、时间字段,得到网络视频的客观热度参数;5)根据步骤3)得到的主观敏感度参数,建立网络视频敏感度预测模型,预测新网络视频的主观敏感度;6)根据步骤4)得到的客观热度参数,建立网络视频热度预测模型,预测新网络视频的客观热度;7)选取主观敏感度和客观热度加权求和在网络视频集中排名靠前的视频作为热点视频。
-
-
-