-
公开(公告)号:CN105405158A
公开(公告)日:2016-03-16
申请号:CN201510727252.9
申请日:2015-10-30
申请人: 清华大学
CPC分类号: G06T11/00 , G06T3/4038 , G06T11/001 , G06T2207/10016
摘要: 本发明提出一种十亿像素视频的实现方法,包括:采集十亿像素背景图像,其中,相邻的行和/或列对应的背景图像中存在重叠区域,重叠区域的面积与对应的背景图像的总面积的比例大于预设值;采集十亿像素背景图像对应场景内的动态视频,并以第一存储方式单独存储;根据重叠区域的特征点对多个背景图像进行拼接以得到完整的十亿像素背景图像;对动态视频进行滑动窗口搜索;采用直方图匹配方式对动态视频对应的前景与十亿像素背景图像的背景进行亮度匹配,以将动态视频嵌入十亿像素背景图像中,得到十亿像素视频,其中,以第二存储方式单独存储十亿像素背景图像。本发明易于实现,无需复杂的采集装置,具有有效的数据存储方式及真实感强的交互方式。
-
公开(公告)号:CN105093522A
公开(公告)日:2015-11-25
申请号:CN201510398760.7
申请日:2015-07-08
申请人: 清华大学
CPC分类号: G02B27/0012 , G02B27/225 , G06T17/00
摘要: 本发明提出一种基于相位的双目转多目虚拟视图合成方法,包括以下步骤:采集双目图像,其中,双目图像位于RGB色彩空间,双目图像包括左图像和右图像;将双目图像变换至YIQ色彩空间以得到变换后的左图像和右图像;分别将变换后的左图像和右图像进行可控复数金字塔分解;计算变换后的左图像和右图像分解后每个点对应的相位差;根据每个点对应的相位差进行相位差值操作以得到相位插值图像序列,并对相位插值图像序列进行反混叠滤波处理,以重构并恢复图像;将重构并恢复的图像转换至RGB色彩空间。本发明的方法能够更好的进行外推插值合成新视点以及对散焦模糊、运动模糊、含有高反射性物体的图片具有良好的合成效果。
-
公开(公告)号:CN102800127B
公开(公告)日:2014-11-26
申请号:CN201210250109.1
申请日:2012-07-18
申请人: 清华大学
IPC分类号: G06T17/00
摘要: 本发明提出一种基于光流优化的三维重建方法及装置,其中该方法包括以下步骤:用多视角深度相机采集多视角的深度图和彩色图,并进行三维空间变换,获取各视角的点云;根据深度图和彩色图的信息,计算相邻视角的两组点云的度量向量;根据多通道光流法,利用相邻视角的两组点云的度量向量建立光流优化式;求解光流优化式,得到相邻视角的两组点云的匹配结果;根据匹配结果,把各视角点云填入融合矩阵;以及对融合矩阵进行处理,得到三维重建结果。本发明可以自适应的利用尽可能少的点表征模型的三维结构,从而降低数据冗余性,同时模型精度较高,此外,本发明对硬件要求不高,适用范围较广。
-
公开(公告)号:CN102842148B
公开(公告)日:2014-09-10
申请号:CN201210237812.9
申请日:2012-07-10
申请人: 清华大学
摘要: 本发明提出一种基于多手持深度相机的无标记运动捕捉及场景重建方法及装置,其中该方法包括步骤:提供人体模型和地板模型;通过多个深度相机手持地拍摄;将相机返回的深度图进行空间变换得到三维点云集合;从对同一深度相机的相邻帧的彩色图中提取场景特征点;根据人体模型中的表面网格点、地板模型中的地板点和三维空间的场景特征点的信息,定义联合优化模型;将三维点云点与表面网格点进行匹配;和将匹配结果对引入联合优化模型进行求解和变换,得到运动捕捉结果和场景重建结果。本发明的方法,无需借助笨重的标志物,能够更加灵活便捷地进行运动捕捉和场景重建,具有运动参数准确鲁棒、场景复原程度高、算法运行速度快、系统成本低的优点。
-
公开(公告)号:CN103198523A
公开(公告)日:2013-07-10
申请号:CN201310150796.4
申请日:2013-04-26
申请人: 清华大学
IPC分类号: G06T17/00
CPC分类号: G06T17/00 , G06T7/55 , G06T7/579 , G06T2207/10028
摘要: 本发明提出一种基于多深度图的非刚体三维重建方法,包括以下步骤:对非刚体以不同角度和不同姿态进行深度图拍摄以得到多个深度图;将每个深度图变换为一组三维点云,并获取多组三维点云之间的多个匹配点对;对每个匹配点进行位置变换,并求取位置变换后的每个匹配点对应的变换参数;对所有变换参数进行拼接,并根据拼接结果建立能量函数;对能量函数进行求解,以根据求解结果重建非刚体的三维模型。根据本发明的方法,所需输入信息简单易采集,并可得到高精度的完整三维模型。该方法求解准确鲁棒,消除了累加误差所会带来的影响,且运行速度快,拥有广阔的应用前景。本发明还提出了一种基于多深度图的非刚体三维重建系统。
-
公开(公告)号:CN102393962B
公开(公告)日:2013-06-12
申请号:CN201110181431.9
申请日:2011-06-30
申请人: 清华大学
IPC分类号: G06T7/00
摘要: 本发明提出一种基于点云数据的三维模型评测方法及装置,该方法包括:A:获得待评测模型;B:对待评测模型的精度进行评测,包括B1:建立第一位置索引;B2:获得面片序号;B3:寻找距待评测模型中点mi的空间距离最近的K个点;B4:判断K个点与点mi之间的K个空间距离的至少一个是否小于第一预定阈值,如果大于则舍弃点mi;B5:否则选择K个点在真实模型中的所有面片;B6:选择点mi与对应的所有面片的最短距离,计算所有最短距离的均值得到精度指标;C:得到完整度指标;和D:根据两指标判断三维模型的重建质量。应用本发明的评测方法可降低计算量,更加真实地反应出重建算法的好坏。本发明的装置结构简单。
-
公开(公告)号:CN102800127A
公开(公告)日:2012-11-28
申请号:CN201210250109.1
申请日:2012-07-18
申请人: 清华大学
IPC分类号: G06T17/00
摘要: 本发明提出一种基于光流优化的三维重建方法及装置,其中该方法包括以下步骤:用多视角深度相机采集多视角的深度图和彩色图,并进行三维空间变换,获取各视角的点云;根据深度图和彩色图的信息,计算相邻视角的两组点云的度量向量;根据多通道光流法,利用相邻视角的两组点云的度量向量建立光流优化式;求解光流优化式,得到相邻视角的两组点云的匹配结果;根据匹配结果,把各视角点云填入融合矩阵;以及对融合矩阵进行处理,得到三维重建结果。本发明可以自适应的利用尽可能少的点表征模型的三维结构,从而降低数据冗余性,同时模型精度较高,此外,本发明对硬件要求不高,适用范围较广。
-
公开(公告)号:CN101719264B
公开(公告)日:2012-05-23
申请号:CN200910243557.7
申请日:2009-12-28
申请人: 清华大学
CPC分类号: G06T3/0062 , G06T3/0068 , G06T5/003 , G06T5/50 , G06T7/55 , G06T15/205 , G06T2200/08 , G06T2207/10012 , G06T2207/20201 , H04N13/243 , H04N13/282 , H04N2013/0074
摘要: 本发明的实施例提出了一种时间解耦的多视角动态场景采集视觉场计算方法,通过搭建多视角动态场景采集系统;对动态场景在视角-时间二维视场子空间上结合空间间插采样、时间间插曝光采样以及变曝光采样策略进行视觉场采样;基于时间解耦策略中时间求交与空间求交的统一一致性,对时空间插曝光的动态场景进行空间轮廓求交,得到对应于短时曝光条件下高时间分辨率的场景模型;对场景模型进行轮廓反投影,获取轮廓运动约束进行时间解耦去运动模糊,并通过三维重建算法建立解耦去运动模糊解后的动态场景三维模型,并对场景三维模型、各短时曝光下的时间解耦图像进行交替迭代优化。本发明提出的上述方案,不需要使用昂贵的工业级别相机,也能实现对真实世界三维场景的高速动态进行捕获,并且所述方案是视觉场采样的通用方法,具有很高的实用价值和适应性。
-
公开(公告)号:CN102393962A
公开(公告)日:2012-03-28
申请号:CN201110181431.9
申请日:2011-06-30
申请人: 清华大学
IPC分类号: G06T7/00
摘要: 本发明提出一种基于点云数据的三维模型评测方法及装置,该方法包括:A:获得待评测模型;B:对待评测模型的精度进行评测,包括B1:建立第一位置索引;B2:获得面片序号;B3:寻找距待评测模型中点mi的空间距离最近的K个点;B4:判断K个点与点mi之间的K个空间距离的至少一个是否小于第一预定阈值,如果大于则舍弃点mi;B5:否则选择K个点在真实模型中的所有面片;B6:选择点mi与对应的所有面片的最短距离,计算所有最短距离的均值得到精度指标;C:得到完整度指标;和D:根据两指标判断三维模型的重建质量。应用本发明的评测方法可降低计算量,更加真实地反应出重建算法的好坏。本发明的装置结构简单。
-
公开(公告)号:CN102254325A
公开(公告)日:2011-11-23
申请号:CN201110205296.7
申请日:2011-07-21
申请人: 清华大学
摘要: 本发明公开了一种运动模糊场景的分割及前景提取方法和系统。该方法包括:将采集到的图像进行颜色空间变换得到第一图像,并对第一图像进行均衡;将采集到的图像与背景图像相减,并将相减后得到的图像进行颜色空间变换得到第二图像,并对第二图像进行均衡;根据均衡后的第一图像和第二图像得到背景区域计算成像平面上每个像素的累积能量,并对能量分布图的二值图进行腐蚀;计算场景模型骨架各组成部分的模糊程度,对选取的在一曝光时刻的清晰图像进行腐蚀;根据腐蚀后的能量分布图的二值图以及腐蚀后的清晰图像得到前景区域;根据前景区域和背景区域,利用trimap算法得到前景提取结果。本发明能够对高速运动造成的大范围模糊实现准确的前景提取。
-
-
-
-
-
-
-
-
-