-
公开(公告)号:CN113132706A
公开(公告)日:2021-07-16
申请号:CN202110245620.1
申请日:2021-03-05
Applicant: 北京邮电大学
IPC: H04N13/111 , H04N13/261 , G06N3/04 , G06N3/08
Abstract: 本发明提供一种基于逆向映射的可控位置虚拟视点生成方法及装置,该方法包括:将待检测图像的左右视点图像输入预训练的第一卷积网络模型,得到预测的中间视点视差图;根据所述中间视点视差图、左右视点图像以及给定的位置因子,基于逆向映射分别合成给定位置的第一虚拟视点图像和第二虚拟视点图像;将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型,得到目标虚拟视点图像;其中,所述第一卷积网络模型,根据中间视点图像已知的左右视点图像作为样本训练得到。该方法运算量较小且能有效避免出现空洞和伪影,显著提高虚拟视点的质量。同时该方法无需精确的深度图,避免在实际场景中获取深度图的困难。
-
公开(公告)号:CN111780955B
公开(公告)日:2021-07-06
申请号:CN202010538250.6
申请日:2020-06-12
Applicant: 北京邮电大学
Abstract: 本发明实施例提供一种用于光栅立体显示器的光栅参数测量方法及系统,该方法包括:获取待测量的光栅立体显示器的三维显示图像;将所述三维显示图像输入到训练好的光栅参数测量模型中,得到所述待测量的光栅立体显示器的光栅参数值,其中,所述训练好的光栅参数测量模型是由样本三维显示图像,通过DQN算法对两个结构相同的卷积神经网络进行训练得到的。本发明通过使用DQN算法进行光栅参数的匹配,针对不同的光栅显示器,具有普适性,提高了光栅参数测量效率和精度。
-
公开(公告)号:CN111813470B
公开(公告)日:2021-03-23
申请号:CN202010537425.1
申请日:2020-06-12
Applicant: 北京邮电大学
Abstract: 本发明实施例提供一种初始交互界面优化方法及装置,该方法包括:获取交互界面目标区域,对交互界面目标区域进行视觉显著性优化,得到视觉增强交互界面;将所述视觉增强交互界面中的文本内容进行潜在语义分析,并根据潜在语义分析结果对文本内容分组优化,得到分组后的文本内容,根据分组后的文本内容对视觉增强交互界面进行优化,得到优化后的初始交互界面。通过以不同的背景颜色呈现目标区域,其能够显著的吸引用户的注视,并且同步将文本内容进行分组优化,将相似度高的文本分为一组,有效减少对该组中的所有文本进行搜索的时间,最终减少了初学者用户对于初始交互界面的认识负荷,提高了认识成功率,有效改善了初学者用户的体验。
-
公开(公告)号:CN111830810A
公开(公告)日:2020-10-27
申请号:CN202010537196.3
申请日:2020-06-12
Applicant: 北京邮电大学
IPC: G03H1/08
Abstract: 本发明实施例提供一种表现体素上真实光照的计算全息图生成方法和装置,该方法包括确定初始化光源的环境光光强、漫反射光光强、镜面反射光光强和光源位置,再读入待全息物体的体数据,设置用于将所述体数据标量值转换为四元量的传递函数,使用反向光线投射算法,基于光源的环境光光强、漫反射光光强、镜面反射光光强和光源位置获取每条相交光线上各个采样点的合成光照后的颜色值和不透明度,最后基于所有相交光线的上的各个采样点的合成光照后的颜色值和不透明度,生成待全息物体的全息图。本发明实施例提供的方法和装置,实现了在全息图生成中附加环境反射、漫反射和镜面反射光照作用,以增强重建像的真实感。
-
公开(公告)号:CN111752131A
公开(公告)日:2020-10-09
申请号:CN202010450320.2
申请日:2020-05-25
Applicant: 北京邮电大学
Abstract: 本发明实施例提供一种基于LED全息显示的失焦现象优化方法及系统。该方法包括:获取LED参考光源,将所述LED参考光源输入参考光预色散系统,得到预色散参考光;获取目标物体的预设图像集合,进行二维波长分布修正的衍射,生成校正后的计算全息图;将所述校正后的计算全息图和所述预色散参考光输入至空间光调制器,得到目标物体的再现像。本发明实施例通过参考光预色散系统,减小了光源谱宽造成的“色模糊”现象,并通过改进生成计算全息图的算法,对光路变化造成的成像面倾斜进行了校正,减小了成像结果的失焦,使成像质量获得显著提升。
-
公开(公告)号:CN105631810B
公开(公告)日:2018-09-11
申请号:CN201610037784.4
申请日:2016-01-20
Applicant: 北京邮电大学
Abstract: 本发明实施例提供了一种基于像素网点复用的印刷方法及系统,所述方法包括:获取待处理图像;将待处理图像转换为灰度图;基于所设置的打印分辨率,确定所设置的最小网格的尺寸,根据尺寸对灰度图进行加网处理,以得到加网灰度图,其中,每个最小网格中包含一个网点;基于预设的网点复用扫描方式和预设的曝光迭代公式,确定加网灰度图中每个网点的最终曝光状态;基于最终曝光状态,对加网灰度图进行印刷,以得到待处理图像所对应的印刷图像。应用本发明实施例,进一步丰富了印刷产品的图像层次和清晰度。
-
公开(公告)号:CN106157356A
公开(公告)日:2016-11-23
申请号:CN201610524828.6
申请日:2016-07-05
Applicant: 北京邮电大学
CPC classification number: G06T15/005 , G06T15/205
Abstract: 本发明实施例提供了一种图像处理方法及装置,根据获得的针对目标显示屏的待处理图像信息以及对应的投影矩阵参数信息,得到针对待处理图像信息的彩色纹理和深度纹理;将待处理图像信息对应的所有像素中预设数量个像素分为一个像素组,每个像素组对应一个线程中;对这预设数量个像素进行串行处理,生成预设数量个虚拟视点像素;根据虚拟视点像素,生成针对待处理图像的虚拟视点图;再根据显示屏对应的蒙版数据以及获得的彩色纹理和深度纹理,按照预设规则,对所述虚拟视点图进行调整,得到合成图;最后将合成图输出。应用本发明实施例,可以在一个线程中串行处理多个像素,降低GPU处理图像的错误率。
-
公开(公告)号:CN104506837B
公开(公告)日:2016-08-17
申请号:CN201410737620.3
申请日:2014-12-04
Applicant: 北京邮电大学
Abstract: 本发明涉及裸眼三维立体显示技术领域,尤其涉及一种射线空间中的实现裸眼三维立体显示的深度控制方法。该深度控制方法包括:S1:确定射线空间,并得到所述射线空间的极平面;S2:获得所述极平面中的线性结构及其斜率;S3:根据所述线性结构的斜率进行深度控制。本发明提供的深度控制方法避免了平移后各视点间的视差不均匀,在观看裸眼显示器时容易产生深度抖动,使观看者产生视觉疲劳等问题。使得裸眼三维立体的实现更为容易、便捷。
-
公开(公告)号:CN105791798A
公开(公告)日:2016-07-20
申请号:CN201610120551.0
申请日:2016-03-03
Applicant: 北京邮电大学
CPC classification number: H04N13/302 , H04N13/122 , H04N13/15 , H04N13/324
Abstract: 本发明公开了一种3D视频实时转化方法,所述3D视频实时转化方法包括:步骤1:基于输入视频每帧图像的视点图、深度图,对应于多个虚拟视点位置,计算所述输入视频的每帧视频的视差值;步骤2:根据所述视差值计算视差水平梯度值;步骤3:根据所述视点图计算图像纹理结构图;步骤4:根据视点图、图像纹理结构图、视差值、视差水平梯度值和显示器参数直接合成对应于每帧图像的立体图像;以及步骤5:输出立体图像。本发明的3D视频实时转化方法直接输出包含多个视点信息的立体图,可以直接通过显示屏输出立体效果。
-
公开(公告)号:CN105759431A
公开(公告)日:2016-07-13
申请号:CN201410779720.2
申请日:2014-12-16
Applicant: 北京邮电大学
IPC: G02B27/22
Abstract: 本发明公开一种三维光场显示系统,所述系统包括:显示器、透镜阵列、全息功能屏;所述显示器用于显示预设的视差子图阵列;所述透镜阵列用于将所述预设的视差子图阵列投射到所述全息功能屏;所述全息功能屏用于提供具有全视差立体效果的光场;其中,所述透镜阵列中的透镜为具有偏心光瞳的透镜,所述透镜阵列满足如下条件:所述预设的视差子图阵列中位于第i行第j列的视差子图的中心相对于所述透镜阵列中相应位置的透镜Lij的通光圆孔的张角为U,i为不大于视差子图阵列行数的正整数,j为不大于视差子图阵列列数的正整数。
-
-
-
-
-
-
-
-
-