-
公开(公告)号:CN105812767B
公开(公告)日:2017-11-10
申请号:CN201610154603.6
申请日:2016-03-17
申请人: 北京邮电大学
IPC分类号: H04N13/00
摘要: 本发明实施例公开了一种基于多频带分解的立体显示深度调整方法及装置,方法包括:确定待调整深度的目标图像;基于高斯滤波函数,得到所述目标图像所对应的高斯金字塔,其中,所述高斯金字塔由不同深度的空间频带组成;将所述高斯金字塔中的各空间频带通过频带差函数获得对数域的频带;将所述对数域频带通过降低低频函数,获得备用3D显示图像;基于所述备用3D显示图像和差值函数,得到深度调整后的待3D显示图像,结束深度调整。应用本发明实施例,能够对不同的深度值进行针对性调整,能够感知深度的变化。
-
公开(公告)号:CN105812767A
公开(公告)日:2016-07-27
申请号:CN201610154603.6
申请日:2016-03-17
申请人: 北京邮电大学
IPC分类号: H04N13/00
CPC分类号: H04N13/128
摘要: 本发明实施例公开了一种基于多频带分解的立体显示深度调整方法及装置,方法包括:确定待调整深度的目标图像;基于高斯滤波函数,得到所述目标图像所对应的高斯金字塔,其中,所述高斯金字塔由不同深度的空间频带组成;将所述高斯金字塔中的各空间频带通过频带差函数获得对数域的频带;将所述对数域频带通过降低低频函数,获得备用3D显示图像;基于所述备用3D显示图像和差值函数,得到深度调整后的待3D显示图像,结束深度调整。应用本发明实施例,能够对不同的深度值进行针对性调整,能够感知深度的变化。
-
公开(公告)号:CN104539925A
公开(公告)日:2015-04-22
申请号:CN201410778799.7
申请日:2014-12-15
申请人: 北京邮电大学
摘要: 本发明提供了一种基于深度信息的三维场景增强现实的方法及系统,其中方法包括:摄像机采集当前现实场景,并将所述当前现实场景发送给中央服务器;所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景;所述中央服务器将所述融合的混合场景发送给显示器,以使所述显示器显示所述融合的混合场景。通过本发明提供的基于深度信息的三维场景增强现实的方法及系统,能够有效的减低计算的复杂度,使得场景融合更加的真实,效果增强,应用范围广泛。
-
公开(公告)号:CN105631810B
公开(公告)日:2018-09-11
申请号:CN201610037784.4
申请日:2016-01-20
申请人: 北京邮电大学
摘要: 本发明实施例提供了一种基于像素网点复用的印刷方法及系统,所述方法包括:获取待处理图像;将待处理图像转换为灰度图;基于所设置的打印分辨率,确定所设置的最小网格的尺寸,根据尺寸对灰度图进行加网处理,以得到加网灰度图,其中,每个最小网格中包含一个网点;基于预设的网点复用扫描方式和预设的曝光迭代公式,确定加网灰度图中每个网点的最终曝光状态;基于最终曝光状态,对加网灰度图进行印刷,以得到待处理图像所对应的印刷图像。应用本发明实施例,进一步丰富了印刷产品的图像层次和清晰度。
-
公开(公告)号:CN106157356A
公开(公告)日:2016-11-23
申请号:CN201610524828.6
申请日:2016-07-05
申请人: 北京邮电大学
CPC分类号: G06T15/005 , G06T15/205
摘要: 本发明实施例提供了一种图像处理方法及装置,根据获得的针对目标显示屏的待处理图像信息以及对应的投影矩阵参数信息,得到针对待处理图像信息的彩色纹理和深度纹理;将待处理图像信息对应的所有像素中预设数量个像素分为一个像素组,每个像素组对应一个线程中;对这预设数量个像素进行串行处理,生成预设数量个虚拟视点像素;根据虚拟视点像素,生成针对待处理图像的虚拟视点图;再根据显示屏对应的蒙版数据以及获得的彩色纹理和深度纹理,按照预设规则,对所述虚拟视点图进行调整,得到合成图;最后将合成图输出。应用本发明实施例,可以在一个线程中串行处理多个像素,降低GPU处理图像的错误率。
-
公开(公告)号:CN105791798A
公开(公告)日:2016-07-20
申请号:CN201610120551.0
申请日:2016-03-03
申请人: 北京邮电大学
CPC分类号: H04N13/302 , H04N13/122 , H04N13/15 , H04N13/324
摘要: 本发明公开了一种3D视频实时转化方法,所述3D视频实时转化方法包括:步骤1:基于输入视频每帧图像的视点图、深度图,对应于多个虚拟视点位置,计算所述输入视频的每帧视频的视差值;步骤2:根据所述视差值计算视差水平梯度值;步骤3:根据所述视点图计算图像纹理结构图;步骤4:根据视点图、图像纹理结构图、视差值、视差水平梯度值和显示器参数直接合成对应于每帧图像的立体图像;以及步骤5:输出立体图像。本发明的3D视频实时转化方法直接输出包含多个视点信息的立体图,可以直接通过显示屏输出立体效果。
-
公开(公告)号:CN105763865A
公开(公告)日:2016-07-13
申请号:CN201610108401.8
申请日:2016-02-26
申请人: 北京邮电大学
CPC分类号: H04N13/31 , G02B27/2221 , H04N13/275 , H04N13/332
摘要: 本发明实施例公开了一种基于透明液晶的裸眼3D增强现实的方法及装置,应用于包括透明液晶显示屏和液晶光栅的显示设备,其中,透明液晶显示屏与液晶光栅之间的距离满足3D成像条件,方法包括:采集真实场景的图像信息和深度信息;根据用户的分割规则,将所述图像信息进行分割,其中分割后的图像信息中包含融合区域;根据所述图像信息中融合区域的深度信息,调整虚拟场景的深度信息;根据所述图像信息中融合区域的位置,将调整后的所述虚拟场景显示在所述透明液晶显示屏中的所述位置;根据用户人眼位置调节液晶光栅参数以3D方式显示所述虚拟场景。应用本发明实施例,无需佩戴头盔显示器,给用户带来更加舒服的体验,产生真实的增强现实效果。
-
公开(公告)号:CN106157356B
公开(公告)日:2018-12-28
申请号:CN201610524828.6
申请日:2016-07-05
申请人: 北京邮电大学
摘要: 本发明实施例提供了一种图像处理方法及装置,根据获得的针对目标显示屏的待处理图像信息以及对应的投影矩阵参数信息,得到针对待处理图像信息的彩色纹理和深度纹理;将待处理图像信息对应的所有像素中预设数量个像素分为一个像素组,每个像素组对应一个线程中;对这预设数量个像素进行串行处理,生成预设数量个虚拟视点像素;根据虚拟视点像素,生成针对待处理图像的虚拟视点图;再根据显示屏对应的蒙版数据以及获得的彩色纹理和深度纹理,按照预设规则,对所述虚拟视点图进行调整,得到合成图;最后将合成图输出。应用本发明实施例,可以在一个线程中串行处理多个像素,降低GPU处理图像的错误率。
-
公开(公告)号:CN105631810A
公开(公告)日:2016-06-01
申请号:CN201610037784.4
申请日:2016-01-20
申请人: 北京邮电大学
CPC分类号: G06T3/40 , G06T5/50 , G06T2207/30144
摘要: 本发明实施例提供了一种基于像素网点复用的印刷方法及系统,所述方法包括:获取待处理图像;将待处理图像转换为灰度图;基于所设置的打印分辨率,确定所设置的最小网格的尺寸,根据尺寸对灰度图进行加网处理,以得到加网灰度图,其中,每个最小网格中包含一个网点;基于预设的网点复用扫描方式和预设的曝光迭代公式,确定加网灰度图中每个网点的最终曝光状态;基于最终曝光状态,对加网灰度图进行印刷,以得到待处理图像所对应的印刷图像。应用本发明实施例,进一步丰富了印刷产品的图像层次和清晰度。
-
公开(公告)号:CN105791798B
公开(公告)日:2018-06-26
申请号:CN201610120551.0
申请日:2016-03-03
申请人: 北京邮电大学
IPC分类号: H04N13/349 , H04N13/128
摘要: 本发明公开了一种3D视频实时转化方法,所述3D视频实时转化方法包括:步骤1:基于输入视频每帧图像的视点图、深度图,对应于多个虚拟视点位置,计算所述输入视频的每帧视频的视差值;步骤2:根据所述视差值计算视差水平梯度值;步骤3:根据所述视点图计算图像纹理结构图;步骤4:根据视点图、图像纹理结构图、视差值、视差水平梯度值和显示器参数直接合成对应于每帧图像的立体图像;以及步骤5:输出立体图像。本发明的3D视频实时转化方法直接输出包含多个视点信息的立体图,可以直接通过显示屏输出立体效果。
-
-
-
-
-
-
-
-
-