-
公开(公告)号:CN119672791A
公开(公告)日:2025-03-21
申请号:CN202411498575.0
申请日:2024-10-25
Applicant: 北京邮电大学
Abstract: 本发明提供一种多视角场景的视觉显著区域预测方法、装置及电子设备,方法包括:获取待预测场景的不同角度下的视图,包括左视图、中视图以及右视图;将左视图和右视图映射至中视图对应的视点上,得到映射后的左视图和映射后的右视图;将映射后的左视图、映射后的右视图、中视图以及中视图对应的深度图作为输入,输入至人眼注视点预测模型中,得到待预测场景的视觉显著区域预测结果。本发明通过采用上述方法,解决相关技术中,视觉注意力模型在捕获多视角场景中眼动行为的准确性不足的问题。
-
公开(公告)号:CN119559046A
公开(公告)日:2025-03-04
申请号:CN202411432489.X
申请日:2024-10-14
Applicant: 北京邮电大学
IPC: G06T3/4053 , G06T3/4046 , G06T7/00 , G06V10/54 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/0895
Abstract: 本发明提供一种基于自监督学习的光场图像实时超分辨率重建方法及装置,其中方法包括:获取高分辨率光场图像,对高分辨率光场图像进行下采样,得到低分辨率光场图像,将低分辨率光场图像转化为宏图像;将高分辨率光场图像的中心视点图像和宏图像输入至角超分辨率重建模型,得到高分辨率虚拟视点图像;角超分辨率重建模型包括超分辨率纹理提取器层、双向视差估计网络层、融合上采样层和反向映射层。此过程有效提升角超分辨率重建模型性能以及角超分辨率重建的速度,有助于实时三维重建的可能性拓展,同时通过角超分辨率重建模型生成的虚拟视点数量能够支持在光场设备上有良好的显示效果。
-
公开(公告)号:CN118735981A
公开(公告)日:2024-10-01
申请号:CN202410717210.6
申请日:2024-06-04
Applicant: 北京邮电大学
Abstract: 本发明提供一种基于深度曲线估计网络的三维光场景深压缩方法、装置及电子设备,该方法包括:获取三维光场下的待压缩深度图;通过深度曲线估计网络模型中的注意力机制,确定待压缩深度图对应的通道注意力图像和空间注意力图像;通过深度曲线估计网络模型,根据通道注意力图像和空间注意力图像,确定景深压缩结果。该方法采用深度曲线估计网络模型,能够自动确定待压缩深度图对应的景深压缩结果,可有效提高景深压缩效率。
-
公开(公告)号:CN118735980A
公开(公告)日:2024-10-01
申请号:CN202410715807.7
申请日:2024-06-04
Applicant: 北京邮电大学
IPC: G06T7/557 , G06V10/774 , G06V10/82 , G06F17/18 , G06N3/0464 , G06N3/0475 , G06N3/088
Abstract: 本发明提供一种无监督学习的三维光场显示景深压缩方法及装置,该方法包括:获取三维光场场景下的待压缩的深度图像和待压缩的深度图像对应的彩色图像;将待压缩的深度图像输入至目标动态因子生成网络,得到目标动态因子生成网络输出的动态因子矩阵;目标动态因子生成网络是基于样本图像集训练得到的,样本图像集包括多对训练样本,每对训练样本包括样本深度图像和样本深度图像对应的样本彩色图像;基于动态因子矩阵和动态映射函数,确定待压缩的深度图像对应的重映射深度图像;基于彩色图像和重映射深度图像,确定压缩后的光场显示图像,使得压缩后的光场显示图像的深度在三维显示器的显示范围之内,提升显示清晰度,同时,能够提升视觉舒适度。
-
-
-