-
公开(公告)号:CN119520755A
公开(公告)日:2025-02-25
申请号:CN202411639595.5
申请日:2024-11-15
Applicant: 联想(北京)有限公司 , 清华大学
IPC: H04N13/128 , H04N13/156 , H04N13/111 , H04N13/282 , H04N13/243 , H04N13/363 , H04N13/00
Abstract: 本申请公开一种图像显示方法和设备,方法包括,获得目标图像对中第一图像的第一图像特征和第二图像的第二图像特征,第一图像和第二图像分别由两个拍摄设备拍摄得到;将第一图像特征和第二图像特征融合,得到第一融合图像特征和第二融合图像特征;根据第一融合图像特征和第二融合图像特征确定深度信息;处理深度信息、目标图像对所含图像、目标图像对的高斯参数和拍摄设备的设备参数,得到高斯点云数据;根据高斯点云数据生成视点图像;通过裸眼全息显示屏显示视点图像。
-
公开(公告)号:CN119027566A
公开(公告)日:2024-11-26
申请号:CN202411131952.7
申请日:2024-08-16
Applicant: 京东方科技集团股份有限公司 , 清华大学
Abstract: 本公开提供一种全息视点生成方法、系统、计算机存储介质及电子设备,属于计算机视觉技术领域,其可解决现有的渲染算法的效率过低,不能满足实时要求的问题。本公开的全息视点生成方法包括生成粗糙的立体对象,根据目标视点确定两个参考视点,并将两个参考视点所对应的姿态图像矫正至位于同一水平面,渲染出两参考视点的粗糙深度图,并进一步转化为粗糙的第一视差图和第二视差图;利用第一神经网络模型优化出精细的第三视差图和第四视差图,并反投影为三维点云,最后将三维点云颜色投影到目标视点上,并利用第二神经网络模型补全优化渲染结果,得到最终的目标视点图像。本公开可用于准确估计立体对象,实时渲染对象新视点。
-
公开(公告)号:CN118261811A
公开(公告)日:2024-06-28
申请号:CN202410410239.X
申请日:2024-04-07
Applicant: 清华大学
IPC: G06T5/50 , G06T5/80 , G06V10/774 , G06V10/74
Abstract: 本申请提出基于高斯泼溅的大基线多人新视点渲染方法及系统,所述方法包括:获取多个目标视点,并利用多台相机采集多人图像构成多个图像对,然后对多个图像对分别进行立体校正,得到多个第二图像对;将多个第二图像对分别输入到预先训练好的视差预测模型中,得到各所述第二图像对的预测视差图;确定各所述第二图像对的深度图,并将各所述深度图和各第二图像对分别输入到预先训练好的高斯点参数预测模型中,得到各所述第二图像对的高斯点预测参数图及高斯点对应的颜色;确定各第二图像对的高斯点云,并基于各高斯点云分别对多个所述目标视点进行渲染,多个渲染图像。本申请提出的技术方案,结合估计深度和高斯泼溅渲染可以达到高效快速渲染的目的。
-
-