-
公开(公告)号:CN105678743B
公开(公告)日:2018-06-29
申请号:CN201511020545.X
申请日:2015-12-29
Applicant: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
Abstract: 本发明公开了一种视频镜头分割边界检测的方法及装置,包括如下步骤:若DHL>αDHR,判定左子窗口内存在镜头突然切换,若DHR>αDHL,则判定右子窗口内存在镜头突然切换,将检测窗口缩小一半,对子窗口内的视频帧进一步检测,直至被检测的视频帧的数量降至2时执行步骤S1;当前两个条件不满足时,若DHL>THg且DHR>THg,判定当前被检测的视频帧内存在镜头渐变切换,并执行步骤S2;S1、比较第一视频帧与第二视频帧的SIFT特征点之间的匹配度与阈值的大小,若小于则判定第一视频帧或第二视频帧为镜头边界;S2、比较首视频帧与尾视频帧的SIFT特征点之间的匹配度与阈值的大小,若小于则判定首视频帧和尾视频帧之间存在镜头渐变切换。
-
公开(公告)号:CN106162164B
公开(公告)日:2018-01-30
申请号:CN201610643932.7
申请日:2016-08-08
Applicant: 清华大学深圳研究生院 , 深圳市未来媒体技术研究院
Abstract: 本发明公开了一种融合神经种群编码模型的3D主观质量预测方法,包括:S1、建立基于支持向量回归的3D主观质量预测模型;S2、基于失真深度图得到视差图;S3、计算视差图在神经种群编码模型下的13维响应;S4、将上述13维响应联合深度图的纹理特征和失真特征参数作为模型的输入,得到3D图像体验质量值。本发明能够以数学模型的形式,融合深度图的纹理特征和计算神经学的神经种群编码模型响应预测其合成图的3D图像体验质量值,对探究多视点视频的体验质量及优化多视点视频编码具有重要的意义。
-
公开(公告)号:CN105416174B
公开(公告)日:2017-09-29
申请号:CN201511017288.4
申请日:2015-12-29
Applicant: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC: B60Q9/00
Abstract: 本发明公开了一种实现汽车行驶信息显示的系统和方法。所述系统包括:投影仪,用于投影虚拟线路指向图像;眼球追踪仪,用于获取驾驶员眼球位置信息;以及汽车挡风玻璃。本发明采用将人眼视觉原理,通过光线反射原理和平面镜成像原理相结合的方法来实现汽车前行方向指示箭头和实际路况进行虚实结合的立体显示。利用本发明能够给汽车驾驶员呈现出一种汽车行驶方向的指示箭头贴合在行驶的路面上的视觉效果。
-
公开(公告)号:CN106331680A
公开(公告)日:2017-01-11
申请号:CN201610657639.6
申请日:2016-08-10
Applicant: 清华大学深圳研究生院 , 深圳市未来媒体技术研究院
IPC: H04N13/02
CPC classification number: H04N13/261
Abstract: 本发明公开了一种手机端2D转3D自适应云卸载的方法和系统,该方法包括如下步骤:A1.输入一帧2D单目图像,将图像等分成N个图像块;A2.将图像块进行分类,分类为远景视图、线性视图和普通视图;A3.根据已划分视图的类别,分别计算每个图像块深度估计的算法复杂度;A4.将每个图像块的算法复杂度,代入云端卸载动态资源分配模型,最优化得到分配结果;A5.按照A4得到的分配结果,分别在手机端和云端进行深度估计,生成深度图。该方法和系统通过建立云端卸载动态资源分配模型,形成基于云计算的手机端2D转3D的自适应卸载方法和系统,将手机端复杂的计算卸载到云端,从而释放手机端的存储资源,提高手机的处理速度,降低手机的功耗;同时获得深度估计合理,运行速度高效的高质量深度图。
-
公开(公告)号:CN105758411A
公开(公告)日:2016-07-13
申请号:CN201511020532.2
申请日:2015-12-29
Applicant: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
CPC classification number: G01C21/3415 , G01C21/32 , G01S19/48
Abstract: 一种基于车载摄像头提升车载GPS定位精度的系统和方法,系统包括车载摄像头、车载测距装置和处理单元,其中车载摄像头实时拍摄汽车行驶场景图像,处理单元选定图像中与本车当前位置相关的第一、第二固定参照物,并获取第一、第二固定参照物预先给定的GPS坐标,将其转换为大地坐标系坐标;处理单元再分别以第一、第二固定参照物的大地坐标系坐标为圆心,以本车到第一、第二固定参照物的距离为半径作圆,确定两个圆相交所得到的两个交点的坐标;再将本车GPS坐标转换为大地坐标系坐标,计算其与两个交点的距离,将其中的较小距离所对应的交点的坐标确定为本车新的大地坐标系坐标,最后转化为GPS坐标。本发明可有效提升车载GPS定位精度。
-
公开(公告)号:CN106339079A
公开(公告)日:2017-01-18
申请号:CN201610645841.7
申请日:2016-08-08
Applicant: 清华大学深圳研究生院 , 深圳市未来媒体技术研究院
CPC classification number: G06F3/011 , G05D1/101 , G06F3/017 , G06F2203/012 , G06T19/006 , H04N13/122 , H04N13/332
Abstract: 本发明公开一种基于计算机视觉的利用无人飞行器实现虚拟现实的方法及装置,使用多类传感器采集运算得到控制者实时的手势信息,实现实时将控制者的手势控制信号反馈到多个无人机的飞行姿态中去,实现多个无人机姿态与控制者手势一一对应,从而控制多个无人飞行器机载摄像头的角度与方向,来得到控制者希望的视角图像;多个无人飞行器的机载摄像头拍摄周围环境的实时视频信息并传回虚拟现实设备;虚拟现实设备接收多个无人飞行器发送的机载摄像头拍摄到的周围环境的实时视频信息,经过3D处理与渲染之后在显示装置上实时显示出来,改善了用户体验,方便用户利用无人机进行特殊目的的侦测,提升无人飞行器的控制性与乐趣性。
-
公开(公告)号:CN105678765A
公开(公告)日:2016-06-15
申请号:CN201610007975.6
申请日:2016-01-07
Applicant: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC: G06T7/00
CPC classification number: G06T2207/10028
Abstract: 本发明涉及一种基于纹理的深度边界修正方法,包括如下步骤:A1、输入深度传感器(如Kinect)采集的纹理图像与对应深度图像;A2、分别提取纹理图像边界与深度图像边界,以纹理边界为基准获取深度边界错位图;A3、计算准确深度点(好点)与误差深度点(坏点)的像素差值,确定边界错位区域;A4、根据错位区域分布特征,自适应地确定方形窗口边长进行深度增强处理,修正窗口内坏点深度,消除边界错位区域。利用本发明能够显著提高类似Kinect等低端深度传感器采集的深度图像边缘的准确性和时域稳定性,应用于三维重建、自由视点视频编码等领域,能有效提升场景三维重建质量和编码效率。
-
公开(公告)号:CN105416174A
公开(公告)日:2016-03-23
申请号:CN201511017288.4
申请日:2015-12-29
Applicant: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC: B60Q9/00
CPC classification number: B60Q9/00
Abstract: 本发明公开了一种实现汽车行驶信息显示的系统和方法。所述系统包括:投影仪,用于投影虚拟线路指向图像;眼球追踪仪,用于获取驾驶员眼球位置信息;以及汽车挡风玻璃。本发明采用将人眼视觉原理,通过光线反射原理和平面镜成像原理相结合的方法来实现汽车前行方向指示箭头和实际路况进行虚实结合的立体显示。利用本发明能够给汽车驾驶员呈现出一种汽车行驶方向的指示箭头贴合在行驶的路面上的视觉效果。
-
公开(公告)号:CN105959665B
公开(公告)日:2018-08-07
申请号:CN201610296758.3
申请日:2016-05-05
Applicant: 清华大学深圳研究生院 , 深圳市未来媒体技术研究院
IPC: H04N13/243 , H04N13/122 , H04N13/344 , G06T3/40
Abstract: 本发明公开了种针对于虚拟现实设备的全景3D视频生成方法,包括:用广角相机阵列拍摄场景视频并经过拼接算法生成全景视频;用深度相机阵列拍摄场景的深度图并经过拼接算法生成全景深度图视频。通过实时检测人的头部位置,在全景视频帧中切割相应位置的图像作为左视点的视频;根据左视点的图像和相应的深度图基于虚拟视点合成技术外插生成右视点图像,这两幅图像拼接为左右3D视频,在虚拟现实设备中显示。本发明通过在虚拟现实设备显示的全景视频中,加入视点合成技术,使观看者能看到全景视频的3D效果,增加了场景的逼真性,进而提升了观者的体验感。
-
公开(公告)号:CN105678765B
公开(公告)日:2019-06-28
申请号:CN201610007975.6
申请日:2016-01-07
Applicant: 深圳市未来媒体技术研究院 , 清华大学深圳研究生院
IPC: G06T7/13
Abstract: 本发明涉及一种基于纹理的深度图像边界修正方法,包括如下步骤:A1、输入深度传感器(如Kinect)采集的纹理图像与对应深度图像;A2、分别提取纹理图像边界与深度图像边界,以纹理图像边界为基准获取深度边界错位图;A3、计算准确深度点(好点)与误差深度点(坏点)的像素差值,确定边界错位区域;A4、根据错位区域分布特征,自适应地确定方形窗口边长进行深度增强处理,修正窗口内坏点深度,消除边界错位区域。利用本发明能够显著提高类似Kinect等低端深度传感器采集的深度图像边缘的准确性和时域稳定性,应用于三维重建、自由视点视频编码等领域,能有效提升场景三维重建质量和编码效率。
-
-
-
-
-
-
-
-
-