-
公开(公告)号:CN110913200A
公开(公告)日:2020-03-24
申请号:CN201911039203.0
申请日:2019-10-29
Applicant: 北京邮电大学
IPC: H04N13/275 , H04N13/282
Abstract: 本发明提供一种多屏拼接同步的多视点图像生成系统及方法,系统包括服务端和多个客户端;每一个客户端,用于将自身的相机参数和模型参数设置为与服务端的相机参数和模型参数相同;每一个客户端,还用于根据接收的分屏参数、自身的屏幕编码和三维模型场景,采用错切变换方式计算其上显示的目标场景;以及对目标场景进行多视点编码,得到用于同步拼接的多视点图像。本发明在实现多屏拼接的过程中,通过布置多个客户端主机,每一个客户端主机对应一个屏幕,通过客户端主机对自身对应的屏幕进行控制计算,能够实现对屏幕数量的扩展,以及减轻了每一个客户端主机的负担,降低了每一个客户端主机的硬件性能要求,以及实现了多屏拼接的三维模型的显示。
-
公开(公告)号:CN110246146B
公开(公告)日:2021-07-30
申请号:CN201910354500.8
申请日:2019-04-29
Applicant: 北京邮电大学
Abstract: 本发明实施例提供一种基于多次深度图像渲染的全视差光场内容生成方法及装置,属于图像处理技术领域。该方法包括:基于多个参考视点对虚拟三维场景进行光栅化渲染,得到每一参考视点对应的二维图像及深度图像;根据每一参考视点对应的二维图像及深度图像以及每一参考视点与目标视点之间的映射关系,计算得到目标视点的二维图像及深度图像;对目标视点的二维图像及深度图像进行编码,得到虚拟三维场景以目标视点为视角的三维图像。由于采用了多个参考视点,从而使得对虚拟三维场景的信息采集更加全面,进而可减少三维图像中的空洞,并可完整地表达三维场景的遮挡关系,且适用于大视场角度的光场显示设备。
-
公开(公告)号:CN111010559B
公开(公告)日:2021-02-26
申请号:CN201911108124.0
申请日:2019-11-13
Applicant: 北京邮电大学
IPC: H04N13/302 , H04N13/122 , H04N13/125
Abstract: 本发明实施例提供一种裸眼三维光场内容的生成方法及装置,其中方法包括:获取虚拟相机阵列中每个虚拟相机与显示面板上各像素点的对应关系,通过虚拟相机向具有对应关系的像素点多次发射定向光线;对每次发射的定向光线照射至虚拟物体上后的反射光线进行路径跟踪,根据多次路径追踪的结果进行积分,获得所述像素点的像素值;根据获得的显示面板上所有像素点的像素值生成所述虚拟物体的三维光场内容。本发明实施例解决了超多密集视点在复杂光照下无法快速生成高质量的集成成像的生成问题。
-
公开(公告)号:CN110379010A
公开(公告)日:2019-10-25
申请号:CN201910554448.0
申请日:2019-06-25
Applicant: 北京邮电大学
Abstract: 本发明实施例提供一种基于视频融合的三维地理信息可视化方法及系统,所述方法包括:获取实时监控视频数据;构建2D-3D GIS系统;通过仿真在所述2D-3D GIS系统中的小飞机飞行场景构建3D虚拟场景;将所述实时监控视频数据融合到所述3D虚拟场景中。本发明实施例提供的基于视频融合的三维地理信息可视化方法及系统,将视频采集模块获取的实时视频,与三维场景信息、地理空间信息融合在一起进行渲染、显示,达到一种增强现实的效果。并且,利用开发引擎来构建自己的GIS系统,既可以节省开发时间、节约成本,又可以为后面的融合提供便利。
-
公开(公告)号:CN107563088B
公开(公告)日:2019-10-01
申请号:CN201710826579.0
申请日:2017-09-14
Applicant: 北京邮电大学
Abstract: 本发明提供一种基于光线跟踪的光场显示设备仿真方法,包括:S1、建立光场三维显示模型;S2、获取渲染得到光场显示仿真图像中每个像素的光线起点和光线方向;S3、根据光线起点和光线方向,利用光线跟踪技术渲染得到光场显示仿真图像。通过建立三维显示模型,使得在没有进行实验操作的前提下,可以实时得到光场显示的结果,采用逆向光线跟踪技术,并且采用多种包围盒加速结构,为了提高渲染效率,达到实时可交互的目的;对光场显示中所有的光学设备建立严格的数学模型;并采用蒙特卡洛方法,对渲染的每个像素进行多次采样,保证了仿真结果的准确性。
-
公开(公告)号:CN107563088A
公开(公告)日:2018-01-09
申请号:CN201710826579.0
申请日:2017-09-14
Applicant: 北京邮电大学
Abstract: 本发明提供一种基于光线跟踪的光场显示设备仿真方法,包括:S1、建立光场三维显示模型;S2、获取渲染得到光场显示仿真图像中每个像素的光线起点和光线方向;S3、根据光线起点和光线方向,利用光线跟踪技术渲染得到光场显示仿真图像。通过建立三维显示模型,使得在没有进行实验操作的前提下,可以实时得到光场显示的结果,采用逆向光线跟踪技术,并且采用多种包围盒加速结构,为了提高渲染效率,达到实时可交互的目的;对光场显示中所有的光学设备建立严格的数学模型;并采用蒙特卡洛方法,对渲染的每个像素进行多次采样,保证了仿真结果的准确性。
-
公开(公告)号:CN110913200B
公开(公告)日:2021-09-28
申请号:CN201911039203.0
申请日:2019-10-29
Applicant: 北京邮电大学
IPC: H04N13/275 , H04N13/282
Abstract: 本发明提供一种多屏拼接同步的多视点图像生成系统及方法,系统包括服务端和多个客户端;每一个客户端,用于将自身的相机参数和模型参数设置为与服务端的相机参数和模型参数相同;每一个客户端,还用于根据接收的分屏参数、自身的屏幕编码和三维模型场景,采用错切变换方式计算其上显示的目标场景;以及对目标场景进行多视点编码,得到用于同步拼接的多视点图像。本发明在实现多屏拼接的过程中,通过布置多个客户端主机,每一个客户端主机对应一个屏幕,通过客户端主机对自身对应的屏幕进行控制计算,能够实现对屏幕数量的扩展,以及减轻了每一个客户端主机的负担,降低了每一个客户端主机的硬件性能要求,以及实现了多屏拼接的三维模型的显示。
-
公开(公告)号:CN110365965B
公开(公告)日:2020-11-06
申请号:CN201910559221.5
申请日:2019-06-26
Applicant: 北京邮电大学
IPC: H04N13/261 , H04N13/275 , H04N13/282
Abstract: 本发明实施例提供一种三维光场图像生成方法及装置,所述方法包括:获取每一透镜的中心点的实际坐标值;分别以每一透镜的中心点作为原点,获取每一透镜对应的魏格纳塞茨原胞;利用光线跟踪算法获取每一子像素的像素值,其中,子像素的像素视线的起点为子像素的中心点,子像素的像素视线的方向的起点为覆盖子像素的魏格纳塞茨原胞对应的透镜的中心点,终点为子像素的中心点。本发明实施例提供的三维光场图像生成方法及装置,在光线跟踪实现的过程中校正集成成像显示系统由于透镜阵列位置偏差所引起的显示误差,能够在不同显示设备的不同透镜阵列排列下,生成具有大视角多视点的三维光场图像,进而提高了立体成像效果的清晰度和真实感。
-
公开(公告)号:CN110246146A
公开(公告)日:2019-09-17
申请号:CN201910354500.8
申请日:2019-04-29
Applicant: 北京邮电大学
Abstract: 本发明实施例提供一种基于多次深度图像渲染的全视差光场内容生成方法及装置,属于图像处理技术领域。该方法包括:基于多个参考视点对虚拟三维场景进行光栅化渲染,得到每一参考视点对应的二维图像及深度图像;根据每一参考视点对应的二维图像及深度图像以及每一参考视点与目标视点之间的映射关系,计算得到目标视点的二维图像及深度图像;对目标视点的二维图像及深度图像进行编码,得到虚拟三维场景以目标视点为视角的三维图像。由于采用了多个参考视点,从而使得对虚拟三维场景的信息采集更加全面,进而可减少三维图像中的空洞,并可完整地表达三维场景的遮挡关系,且适用于大视场角度的光场显示设备。
-
公开(公告)号:CN111010559A
公开(公告)日:2020-04-14
申请号:CN201911108124.0
申请日:2019-11-13
Applicant: 北京邮电大学
IPC: H04N13/302 , H04N13/122 , H04N13/125
Abstract: 本发明实施例提供一种裸眼三维光场内容的生成方法及装置,其中方法包括:获取虚拟相机阵列中每个虚拟相机与显示面板上各像素点的对应关系,通过虚拟相机向具有对应关系的像素点多次发射定向光线;对每次发射的定向光线照射至虚拟物体上后的反射光线进行路径跟踪,根据多次路径追踪的结果进行积分,获得所述像素点的像素值;根据获得的显示面板上所有像素点的像素值生成所述虚拟物体的三维光场内容。本发明实施例解决了超多密集视点在复杂光照下无法快速生成高质量的集成成像的生成问题。
-
-
-
-
-
-
-
-
-