-
公开(公告)号:CN102202224B
公开(公告)日:2013-03-27
申请号:CN201110169307.0
申请日:2011-06-22
申请人: 清华大学
摘要: 本发明公开了一种用于平面视频立体转换的字幕去抖方法,包括如下步骤:输入预定数量的原视频序列和原视频序列的深度图序列;计算原视频序列中每帧图像的特征值,并将相邻两帧图像的特征值的差值与特征阈值进行比较以得到初始遮罩图;对初始遮罩图进行图像去噪;计算有效图像区域的直方图,并将有效图像区域的直方图与预设直方图进行匹配;对更新后的去噪后遮罩图进行拓展以得到最终遮罩图;对当前帧的最终遮罩图进行深度赋值;对字幕区域的深度图进行帧内的图像平滑处理和帧间的时域平滑处理。本发明还公开了一种用于平面视频立体转换的字幕去抖装置。本发明可以有效地改善深度图中字幕的深度信息,减小甚至消除字幕的抖动和扭曲现象。
-
公开(公告)号:CN102014293B
公开(公告)日:2012-08-22
申请号:CN201010597608.9
申请日:2010-12-20
申请人: 清华大学
IPC分类号: H04N13/00
摘要: 本发明提出一种平面视频的立体渲染方法,包括以下步骤:接收平面视频、所述平面视频对应的深度图以及用户输入的渲染参数;判断所述平面视频的色彩格式;根据所述平面视频的色彩格式、所述渲染参数和所述深度图对所述平面视频进行渲染以获得第一虚拟视图和第二虚拟视图;以及将所述第一虚拟视图和所述第二虚拟视图合成为一幅立体视图输出。本发明通过结合平面视频的深度图进行立体视频的渲染,在计算左右眼的虚拟视图的过程中能够计算出所有的像素值,不需要进行反复的空洞填充和错误检查操作,提高视频渲染的速度,从而能够满足实时播放的需求。而且,本发明的平面视频立体渲染的方法能够处理所有色彩格式的视频,兼容性强。
-
公开(公告)号:CN102202224A
公开(公告)日:2011-09-28
申请号:CN201110169307.0
申请日:2011-06-22
申请人: 清华大学
摘要: 本发明公开了一种用于平面视频立体转换的字幕去抖方法,包括如下步骤:输入预定数量的原视频序列和原视频序列的深度图序列;计算原视频序列中每帧图像的特征值,并将相邻两帧图像的特征值的差值与特征阈值进行比较以得到初始遮罩图;对初始遮罩图进行图像去噪;计算有效图像区域的直方图,并将有效图像区域的直方图与预设直方图进行匹配;对更新后的去噪后遮罩图进行拓展以得到最终遮罩图;对当前帧的最终遮罩图进行深度赋值;对字幕区域的深度图进行帧内的图像平滑处理和帧间的时域平滑处理。本发明还公开了一种用于平面视频立体转换的字幕去抖装置。本发明可以有效地改善深度图中字幕的深度信息,减小甚至消除字幕的抖动和扭曲现象。
-
公开(公告)号:CN102306393A
公开(公告)日:2012-01-04
申请号:CN201110220580.1
申请日:2011-08-02
申请人: 清华大学
摘要: 本发明公开了一种基于轮廓匹配的深度扩散方法,包括如下步骤:输入多帧图像,提取多帧图像中每一帧图像的轮廓以得到每一帧图像的轮廓序列;根据每一帧图像轮廓序列计算每一帧图像的轮廓序列中每个轮廓的轮廓特征值;将当前帧图像的每个轮廓特征值与当前帧的前一帧图像的轮廓序列中每个轮廓的轮廓特征值进行比对以获取当前帧图像的每个轮廓的在前一帧图像中的相似轮廓;将前一帧图像中的相似轮廓所包围区域的深度值赋值给当前帧的对应轮廓所包围区域生成当前帧图像的深度图。本发明还公开了一种基于轮廓匹配的深度扩散装置。本发明可以得到的非关键帧深度图边缘清楚、深度层次明确、平滑性能好且时域稳定性高。
-
-
公开(公告)号:CN102306393B
公开(公告)日:2013-07-17
申请号:CN201110220580.1
申请日:2011-08-02
申请人: 清华大学
摘要: 本发明公开了一种基于轮廓匹配的深度扩散方法,包括如下步骤:输入多帧图像,提取多帧图像中每一帧图像的轮廓以得到每一帧图像的轮廓序列;根据每一帧图像轮廓序列计算每一帧图像的轮廓序列中每个轮廓的轮廓特征值;将当前帧图像的每个轮廓特征值与当前帧的前一帧图像的轮廓序列中每个轮廓的轮廓特征值进行比对以获取当前帧图像的每个轮廓的在前一帧图像中的相似轮廓;将前一帧图像中的相似轮廓所包围区域的深度值赋值给当前帧的对应轮廓所包围区域生成当前帧图像的深度图。本发明还公开了一种基于轮廓匹配的深度扩散装置。本发明可以得到的非关键帧深度图边缘清楚、深度层次明确、平滑性能好且时域稳定性高。
-
公开(公告)号:CN102724529B
公开(公告)日:2014-08-06
申请号:CN201210170063.2
申请日:2012-05-28
申请人: 清华大学
摘要: 本发明提出一种虚拟视点视频序列的生成方法及装置,该方法包括以下步骤:输入若干个原始视点的视频序列及其深度图序列;记录各个原始视点与虚拟视点的相对位置;对原始视点的深度图进行深度值排序;根据排序结果对原始视点的彩色图进行迁移和空洞填充处理,得到虚拟视点初始彩色图;利用原始视点深度图的边缘信息和虚拟视点初始彩色图的边缘信息计算边缘评价值;若边缘评价值大于预定阈值则进行修正,得到的虚拟视点平滑彩色图;将各个原始视点对应的虚拟视点平滑彩色图合成为一张最终彩色图,并进一步得到虚拟视点视频序列。本发明的方法可以在提供任意数目原始视点视频序列的情况下,以较高效率生成失真较小的虚拟视点视频序列。
-
公开(公告)号:CN102724544A
公开(公告)日:2012-10-10
申请号:CN201210206556.7
申请日:2012-06-18
申请人: 清华大学 , 北京华清美伦科技有限公司
摘要: 本发明提出一种立体视频主观评价系统和方法,该系统包括:服务器,用于存储评价任务信息和视频序列;客户端,获取存储在服务器中的评价任务信息,并根据评价任务信息从服务器中获取对应的多个视频序列,并根据用户的选择,记录用户信息并播放当前待评价的视频序列,以便在用户对当前待评价的视频序列评价完成后,存储评价分数,并将用户对多个视频序列的每一个视频序列的评价分数和用户信息上传至服务器;与所述服务器相连综合评价系统,用于根据用户信息统计用户数量,并根据用户数量对所有评价分数进行分析,以得到最终的评价结果。根据本发明的实施例,减少评价人员之间的相互干扰、保证评价的客观性、使评价结果更加权威和说服力。
-
公开(公告)号:CN102724529A
公开(公告)日:2012-10-10
申请号:CN201210170063.2
申请日:2012-05-28
申请人: 清华大学
摘要: 本发明提出一种虚拟视点视频序列的生成方法及装置,该方法包括以下步骤:输入若干个原始视点的视频序列及其深度图序列;记录各个原始视点与虚拟视点的相对位置;对原始视点的深度图进行深度值排序;根据排序结果对原始视点的彩色图进行迁移和空洞填充处理,得到虚拟视点初始彩色图;利用原始视点深度图的边缘信息和虚拟视点初始彩色图的边缘信息计算边缘评价值;若边缘评价值大于预定阈值则进行修正,得到的虚拟视点平滑彩色图;将各个原始视点对应的虚拟视点平滑彩色图合成为一张最终彩色图,并进一步得到虚拟视点视频序列。本发明的方法可以在提供任意数目原始视点视频序列的情况下,以较高效率生成失真较小的虚拟视点视频序列。
-
公开(公告)号:CN102014293A
公开(公告)日:2011-04-13
申请号:CN201010597608.9
申请日:2010-12-20
申请人: 清华大学
IPC分类号: H04N13/00
摘要: 本发明提出一种平面视频的立体渲染方法,包括以下步骤:接收平面视频、所述平面视频对应的深度图以及用户输入的渲染参数;判断所述平面视频的色彩格式;根据所述平面视频的色彩格式、所述渲染参数和所述深度图对所述平面视频进行渲染以获得第一虚拟视图和第二虚拟视图;以及将所述第一虚拟视图和所述第二虚拟视图合成为一幅立体视图输出。本发明通过结合平面视频的深度图进行立体视频的渲染,在计算左右眼的虚拟视图的过程中能够计算出所有的像素值,不需要进行反复的空洞填充和错误检查操作,提高视频渲染的速度,从而能够满足实时播放的需求。而且,本发明的平面视频立体渲染的方法能够处理所有色彩格式的视频,兼容性强。
-
-
-
-
-
-
-
-
-