一种基于深度学习的动态场景HDR重建方法

    公开(公告)号:CN111242883A

    公开(公告)日:2020-06-05

    申请号:CN202010026179.3

    申请日:2020-01-10

    Abstract: 本发明公开了一种基于深度学习的动态场景HDR重建方法,克服了现有技术中图像处理效果有待改进的问题。该发明含有以下步骤,在同一静态场景内用固定相机获取欠曝光、正常曝光和过曝光三幅图像;在动态场景中,用手持相机获取上述三幅图像,记为D1、D2和D3;用LK光流法对D1、S2和D3进行配准,图像序列记为R1、R2和R3和步骤1中得到的Ground Truth组成配对的训练集;利用相机相应曲线将R1、R2和R3变换到线性域,记为H1、H2和H3;利用对比度算子提取H1、H2和H3图像中的亮度信息,记为M1、M2和M3;利用梯度算子提取R1、R2和R3图像中细节信息,记为L1、L2和L3;设计基于Resnet的Attention模块。该技术生成的HDR图像细节丰富,对比度高,具有广色域高动态范围。

    一种基于深度学习的动态场景HDR重建方法

    公开(公告)号:CN111242883B

    公开(公告)日:2023-03-28

    申请号:CN202010026179.3

    申请日:2020-01-10

    Abstract: 本发明公开了一种基于深度学习的动态场景HDR重建方法,克服了现有技术中图像处理效果有待改进的问题。该发明含有以下步骤,在同一静态场景内用固定相机获取欠曝光、正常曝光和过曝光三幅图像;在动态场景中,用手持相机获取上述三幅图像,记为D1、D2和D3;用LK光流法对D1、S2和D3进行配准,图像序列记为R1、R2和R3和步骤1中得到的Ground Truth组成配对的训练集;利用相机相应曲线将R1、R2和R3变换到线性域,记为H1、H2和H3;利用对比度算子提取H1、H2和H3图像中的亮度信息,记为M1、M2和M3;利用梯度算子提取R1、R2和R3图像中细节信息,记为L1、L2和L3;设计基于Resnet的Attention模块。该技术生成的HDR图像细节丰富,对比度高,具有广色域高动态范围。

    基于卷积长短期记忆神经网络的视频损伤修复方法

    公开(公告)号:CN111866511B

    公开(公告)日:2022-03-15

    申请号:CN202010794331.2

    申请日:2020-08-10

    Abstract: 本发明涉及一种基于卷积长短期记忆神经网络的视频损伤修复方法,步骤为:1.使用视频编解码器压缩未受损的视频码流A1,得到受损的视频码流A2;2.无损逐帧分解A1和A2,分别得到帧序列B1和B2;将B1和B2逐帧对应保存;3.使用视频编解码器提取A2的分块深度信息S1,对A2逐帧划分,将结果叠加至B2上,生成带有视频编码信息的帧序列B3;4.构建视频修复网络;5.以损失函数作为优化目标,B1为标签,将B2和B3输入视频修复网络并对其进行训练;6.将待修复的视频序列及其编码信息输入训练好的视频修复网络中,得到修复完成的视频序列;本发明所修复的受损视频清晰度高,且只针对视频受损区域进行修复。

    基于GAN网络的水下图像色彩校正方法

    公开(公告)号:CN110189268A

    公开(公告)日:2019-08-30

    申请号:CN201910432105.7

    申请日:2019-05-23

    Abstract: 本发明涉及一种基于GAN网络的水下图像色彩校正方法;该方法通过训练Cycle GAN网络,使其完成从空气中图像到水下图像的风格转换;使用训练好的Cycle GAN网络将空气中图像生成对应的水下图像,空气中图像和其对应的水下图像组成配对的数据集;通过构建UGAN网络,使用配对的数据集和实际拍摄的水下图像作为验证集训练UGAN网络,得到训练好的去水模型,使用去水模型对水下图像进行色彩校正,最后将输入的水下图像的UV通道和输出的空气中图像的Y通道进行融合后转换为RGB图像输出;本发明所生成的空气中图像与其对应的水下图像配对的数据集真实可用,对水下图像进行去水处理后,可增强画质,处理速度快,效率高。

    基于卷积长短期记忆神经网络的视频损伤修复方法

    公开(公告)号:CN111866511A

    公开(公告)日:2020-10-30

    申请号:CN202010794331.2

    申请日:2020-08-10

    Abstract: 本发明涉及一种基于卷积长短期记忆神经网络的视频损伤修复方法,步骤为:1.使用视频编解码器压缩未受损的视频码流A1,得到受损的视频码流A2;2.无损逐帧分解A1和A2,分别得到帧序列B1和B2;将B1和B2逐帧对应保存;3.使用视频编解码器提取A2的分块深度信息S1,对A2逐帧划分,将结果叠加至B2上,生成带有视频编码信息的帧序列B3;4.构建视频修复网络;5.以损失函数作为优化目标,B1为标签,将B2和B3输入视频修复网络并对其进行训练;6.将待修复的视频序列及其编码信息输入训练好的视频修复网络中,得到修复完成的视频序列;本发明所修复的受损视频清晰度高,且只针对视频受损区域进行修复。

Patent Agency Ranking