-
公开(公告)号:CN105631810B
公开(公告)日:2018-09-11
申请号:CN201610037784.4
申请日:2016-01-20
Applicant: 北京邮电大学
Abstract: 本发明实施例提供了一种基于像素网点复用的印刷方法及系统,所述方法包括:获取待处理图像;将待处理图像转换为灰度图;基于所设置的打印分辨率,确定所设置的最小网格的尺寸,根据尺寸对灰度图进行加网处理,以得到加网灰度图,其中,每个最小网格中包含一个网点;基于预设的网点复用扫描方式和预设的曝光迭代公式,确定加网灰度图中每个网点的最终曝光状态;基于最终曝光状态,对加网灰度图进行印刷,以得到待处理图像所对应的印刷图像。应用本发明实施例,进一步丰富了印刷产品的图像层次和清晰度。
-
公开(公告)号:CN104506837B
公开(公告)日:2016-08-17
申请号:CN201410737620.3
申请日:2014-12-04
Applicant: 北京邮电大学
Abstract: 本发明涉及裸眼三维立体显示技术领域,尤其涉及一种射线空间中的实现裸眼三维立体显示的深度控制方法。该深度控制方法包括:S1:确定射线空间,并得到所述射线空间的极平面;S2:获得所述极平面中的线性结构及其斜率;S3:根据所述线性结构的斜率进行深度控制。本发明提供的深度控制方法避免了平移后各视点间的视差不均匀,在观看裸眼显示器时容易产生深度抖动,使观看者产生视觉疲劳等问题。使得裸眼三维立体的实现更为容易、便捷。
-
公开(公告)号:CN105791798A
公开(公告)日:2016-07-20
申请号:CN201610120551.0
申请日:2016-03-03
Applicant: 北京邮电大学
CPC classification number: H04N13/302 , H04N13/122 , H04N13/15 , H04N13/324
Abstract: 本发明公开了一种3D视频实时转化方法,所述3D视频实时转化方法包括:步骤1:基于输入视频每帧图像的视点图、深度图,对应于多个虚拟视点位置,计算所述输入视频的每帧视频的视差值;步骤2:根据所述视差值计算视差水平梯度值;步骤3:根据所述视点图计算图像纹理结构图;步骤4:根据视点图、图像纹理结构图、视差值、视差水平梯度值和显示器参数直接合成对应于每帧图像的立体图像;以及步骤5:输出立体图像。本发明的3D视频实时转化方法直接输出包含多个视点信息的立体图,可以直接通过显示屏输出立体效果。
-
公开(公告)号:CN105631810A
公开(公告)日:2016-06-01
申请号:CN201610037784.4
申请日:2016-01-20
Applicant: 北京邮电大学
CPC classification number: G06T3/40 , G06T5/50 , G06T2207/30144
Abstract: 本发明实施例提供了一种基于像素网点复用的印刷方法及系统,所述方法包括:获取待处理图像;将待处理图像转换为灰度图;基于所设置的打印分辨率,确定所设置的最小网格的尺寸,根据尺寸对灰度图进行加网处理,以得到加网灰度图,其中,每个最小网格中包含一个网点;基于预设的网点复用扫描方式和预设的曝光迭代公式,确定加网灰度图中每个网点的最终曝光状态;基于最终曝光状态,对加网灰度图进行印刷,以得到待处理图像所对应的印刷图像。应用本发明实施例,进一步丰富了印刷产品的图像层次和清晰度。
-
公开(公告)号:CN105791798B
公开(公告)日:2018-06-26
申请号:CN201610120551.0
申请日:2016-03-03
Applicant: 北京邮电大学
IPC: H04N13/349 , H04N13/128
Abstract: 本发明公开了一种3D视频实时转化方法,所述3D视频实时转化方法包括:步骤1:基于输入视频每帧图像的视点图、深度图,对应于多个虚拟视点位置,计算所述输入视频的每帧视频的视差值;步骤2:根据所述视差值计算视差水平梯度值;步骤3:根据所述视点图计算图像纹理结构图;步骤4:根据视点图、图像纹理结构图、视差值、视差水平梯度值和显示器参数直接合成对应于每帧图像的立体图像;以及步骤5:输出立体图像。本发明的3D视频实时转化方法直接输出包含多个视点信息的立体图,可以直接通过显示屏输出立体效果。
-
公开(公告)号:CN104539925B
公开(公告)日:2016-10-05
申请号:CN201410778799.7
申请日:2014-12-15
Applicant: 北京邮电大学
Abstract: 本发明提供了一种基于深度信息的三维场景增强现实的方法及系统,其中方法包括:摄像机采集当前现实场景,并将所述当前现实场景发送给中央服务器;所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景;所述中央服务器将所述融合的混合场景发送给显示器,以使所述显示器显示所述融合的混合场景。通过本发明提供的基于深度信息的三维场景增强现实的方法及系统,能够有效的减低计算的复杂度,使得场景融合更加的真实,效果增强,应用范围广泛。
-
公开(公告)号:CN105812767B
公开(公告)日:2017-11-10
申请号:CN201610154603.6
申请日:2016-03-17
Applicant: 北京邮电大学
IPC: H04N13/00
Abstract: 本发明实施例公开了一种基于多频带分解的立体显示深度调整方法及装置,方法包括:确定待调整深度的目标图像;基于高斯滤波函数,得到所述目标图像所对应的高斯金字塔,其中,所述高斯金字塔由不同深度的空间频带组成;将所述高斯金字塔中的各空间频带通过频带差函数获得对数域的频带;将所述对数域频带通过降低低频函数,获得备用3D显示图像;基于所述备用3D显示图像和差值函数,得到深度调整后的待3D显示图像,结束深度调整。应用本发明实施例,能够对不同的深度值进行针对性调整,能够感知深度的变化。
-
公开(公告)号:CN105812767A
公开(公告)日:2016-07-27
申请号:CN201610154603.6
申请日:2016-03-17
Applicant: 北京邮电大学
IPC: H04N13/00
CPC classification number: H04N13/128
Abstract: 本发明实施例公开了一种基于多频带分解的立体显示深度调整方法及装置,方法包括:确定待调整深度的目标图像;基于高斯滤波函数,得到所述目标图像所对应的高斯金字塔,其中,所述高斯金字塔由不同深度的空间频带组成;将所述高斯金字塔中的各空间频带通过频带差函数获得对数域的频带;将所述对数域频带通过降低低频函数,获得备用3D显示图像;基于所述备用3D显示图像和差值函数,得到深度调整后的待3D显示图像,结束深度调整。应用本发明实施例,能够对不同的深度值进行针对性调整,能够感知深度的变化。
-
公开(公告)号:CN104539925A
公开(公告)日:2015-04-22
申请号:CN201410778799.7
申请日:2014-12-15
Applicant: 北京邮电大学
Abstract: 本发明提供了一种基于深度信息的三维场景增强现实的方法及系统,其中方法包括:摄像机采集当前现实场景,并将所述当前现实场景发送给中央服务器;所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景;所述中央服务器将所述融合的混合场景发送给显示器,以使所述显示器显示所述融合的混合场景。通过本发明提供的基于深度信息的三维场景增强现实的方法及系统,能够有效的减低计算的复杂度,使得场景融合更加的真实,效果增强,应用范围广泛。
-
公开(公告)号:CN103747232A
公开(公告)日:2014-04-23
申请号:CN201310723542.7
申请日:2013-12-24
Applicant: 北京邮电大学
Abstract: 本发明提供一种非垂直角度的3D显示方法及装置,该方法包括:确定矫正后图像的公共区域,并利用标定板计算变换系数;根据所述变换系数对矫正前图像进行矫正,并根据确定的公共区域将矫正后的多个图像进行合成并立体显示。本发明通过通过确定矫正后图像的公共区域,并利用标定板计算的变换系数对多个不同角度拍摄的矫正前图像进行矫正,并根据确定的公共区域对矫正后的多个图像进行合成并立体显示,从而消除了图像的梯形失真。
-
-
-
-
-
-
-
-
-