一种基于显著性的立体三维视频错误隐藏方法

    公开(公告)号:CN111770346A

    公开(公告)日:2020-10-13

    申请号:CN202010523987.0

    申请日:2020-06-10

    Abstract: 本发明公开了一种基于显著性的立体三维视频错误隐藏方法。传统的错误隐藏技术在视频流在传输过程中发生整帧丢失时恢复效果差。本发明方法首先获取丢失帧的运动显著性图、深度显著性图,深度边缘显著性图,然后融合运动显著性图和深度显著性图并块化,再与深度边缘显著性图合并得到最终显著性图,并进行显著等级划分。对高显著等级的区域采用视点间搜索像素填补和候选运动矢量补偿恢复,对中显著等级的区域采用时域搜索像素填补和视点间搜索像素填补,对低显著等级区域采用时域帧像素拷贝填补。本发明方法除了结合3D—HEVC特性提出新的错误隐藏方法,考虑了视频画面的显著性,对立体视频在网络传输中发生的整帧丢失现象有很好的恢复效果。

    一种基于残差分块的自适应多视点视频错误隐藏方法

    公开(公告)号:CN111010583A

    公开(公告)日:2020-04-14

    申请号:CN201911206004.4

    申请日:2019-11-29

    Abstract: 本发明涉及一种基于残差分块的自适应多视点视频错误隐藏方法。新一代多视点视频编码标准MV-HEVC一旦出现数据丢包,将影响与丢失帧相关联的所有帧,产生差错传播。本发明方法针对多视点视频中中间视点视频流丢包的现象,首先利用丢失块可用邻块的残差信息对丢失块进行残差重建,然后根据残差值对丢失块进行模式划分,划分结束后基于残差信息对丢失块划分后的子块进行重建顺序排序,最后基于重建顺序结合时空域信息和视点间信息重建丢失块。本方法结合了丢失块邻块的时空域信息和帧间信息,对于多视点视频的中间视点码流丢失问题有较好的重建效果。

    一种适用于HEVC视频编码的帧级量化参数计算方法

    公开(公告)号:CN109120934A

    公开(公告)日:2019-01-01

    申请号:CN201811117434.4

    申请日:2018-09-25

    Abstract: 本发明公开了一种考虑帧间依赖的帧级量化参数计算方法。首先建立基于帧间依赖的失真预测模型(ΔD-ΔQp模型),然后将该模型运用到率失真优化中,求得率失真代价最小时的拉格朗日乘子λ,最后由λ-Qp关系,求出最优帧级量化参数。其中的ΔD-ΔQp模型不仅体现了帧间依赖,并在建模过程中将视频内容考虑了进来,所以该模型可以根据视频内容自适应调整。本方法具有实施复杂度低的特点,方法中使用的参量均是从视频编码过程中获得,不需要复杂的计算,基本不会增加视频编码复杂度,所以不会造成系统延时。

    一种虚拟视点合成图像的空洞填充方法

    公开(公告)号:CN118691507A

    公开(公告)日:2024-09-24

    申请号:CN202410682107.2

    申请日:2024-05-29

    Abstract: 本发明公开了一种虚拟视点合成图像的空洞填充方法。本发明方法首先构建生成器,生成器包括下采样层、DCSW Transformer层、特征聚合残差层、全局‑局部融合模块和上采样层;然后构建鉴别器,鉴别器采用基于块的生成对抗网络PatchGAN,包括5个卷积层;构建总损失函数,由L1损失、边缘损失、感知损失、HVS总损失和对抗损失构成;训练生成器和鉴别器,配合生成器网络重构空洞区域的内容和纹理;最后利用训练后的生成器对原始图像进行空洞填充。本发明在虚拟视点空洞填充任务中的具有高效性和优越性能,能够广泛应用于不同的虚拟视点合成场景,具有显著实用价值和推广潜力。

    一种全景视频插帧方法
    79.
    发明公开

    公开(公告)号:CN118646896A

    公开(公告)日:2024-09-13

    申请号:CN202411023544.X

    申请日:2024-07-29

    Abstract: 本发明公开了一种全景视频插帧方法。本发明方法通过全局网络和融合网络实现,每个网络完成特定功能,共同完成视频插帧任务。全局网络包括ERP特征提取模块、串并行编解码模块、自适应运动扭曲预测模块和细化网络模块。ERP特征提取模块采用两个单独的多尺度特征提取模块,自适应运动扭曲预测模块包括权重预测层、水平偏移预测层、垂直偏移预测层和掩膜预测层,细化网络模块包括三层编码器和三层解码器。融合网络包括局部中间帧生成模块、纹理提取模块和多通道融合模块。本发明设计的网络结构能更好地捕获全景图像的特征和扭曲运动轨迹,从而显著提高了全景视频插帧算法的性能和效果,以满足不断增长的全景视频应用需求。

    语境特征融合的虚拟视点合成图像空洞填充方法

    公开(公告)号:CN115297316B

    公开(公告)日:2024-09-06

    申请号:CN202210963297.6

    申请日:2022-08-11

    Abstract: 本发明方法公开了语境特征融合的虚拟视点合成图像空洞填充方法。本发明方法首先以参考视图、参考深度图和相机信息为单位,检测出深度图的前景信息并进行前景扩散,然后根据3D变换和参考信息绘制出虚拟视点图像,最后在生成对抗网络中加入具有语境特征融合的注意力生成空洞区域的像素。本发明根据3D‑warping、空洞和前景之间的位置关系和注意力机制原理,改进了已有的注意力提取特征的方法,尤其是在视频序列中包含快速运动的物体在修复工作中起重要作用。本发明加强了同一空洞区域的连续特征块之间的联系,消除前景信息对背景区域修复的影响,可以直接应用在3D视频处理,3D视频/图像物体修复等领域。

Patent Agency Ranking