一种图像的超分辨率重建方法

    公开(公告)号:CN106886978B

    公开(公告)日:2020-01-03

    申请号:CN201710084743.5

    申请日:2017-02-16

    Abstract: 本发明公开了一种图像的超分辨率重建方法,包括以下步骤:A1,计算待处理的低分辨率图像对应的高分辨率图像,将得到的初始的高分辨率图像分块,计算各图像块的中心像素点的位置向量p所对应的结构张量Sw(p);A2,计算各图像块的结构张量Sw(p)的特征值,判断图像块是否为平滑图像块;A3,在图像块为平滑图像块时,将初始的高分辨率图像块作为该图像块的最终高分辨率图像块;A4,在图像块为非平滑图像块时,结合图论进行重建计算;A5,待所有图像块得到最终的高分辨率图像块后,得到最终重建的高分辨率图像;重建时,对于重叠区域的像素点,取该像素点对应的两高分辨率像素值的平均值。本发明的超分辨率重建方法,可降低计算的复杂度,节省处理时间。

    一种基于光场图像的高光区域修复方法

    公开(公告)号:CN107103589B

    公开(公告)日:2019-09-06

    申请号:CN201710170590.6

    申请日:2017-03-21

    Abstract: 一种基于光场图像的高光区域修复方法,包括:获取四维光场图像以及对应的深度图像;从四维光场图像提取中心视点图像,初步确定高光目标点的空间域坐标,依照输入的深度图像对四维光场图像进行重聚焦,获取高光目标点的角度域特性并划分成饱和高光点与非饱和高光点;对一个视点或多个视点的图像进行本征图像分解,得到图像本征反射属性,找到高光目标点对应的本征反射信息;对非饱和高光点,利用多视点下的局部区域特性分离出漫反射分量,结合步骤A3确定的本征反射信息,对非饱和高光点进行修复;A5:对饱和高光点,利用临近像素点的漫反射分量进行传播,结合步骤A3确定的本征反射信息,对饱和高光点进行修复。利用本发明能够提高含有高光表面的图像的质量。

    一种消除图像阴霾的方法

    公开(公告)号:CN105741248B

    公开(公告)日:2019-02-22

    申请号:CN201610075166.9

    申请日:2016-02-02

    Abstract: 本发明涉及数字图像处理领域,尤其是涉及一种单幅图像去阴霾的技术:消除阴霾导致图像退化的方法。本发明基于大气光散射模型,并引入表征近似黑体辐射的暗点来作为图像先验知识来去除图像的阴霾退化,恢复清晰图像。具体的步骤有:输入图像;盒式滤波以获得亮度图和局部最小值点;图像分割以区分天空区域和地面目标;对天空区域作大气光估计;对地面目标作暗点选取;阴霾分布估计;衰减补偿计算;无衰减图像重建;色彩还原;输出图像。本发明实现了从一幅阴霾退化的图像中恢复一个等效晴天拍摄的清晰图像,即去阴霾。

    基于四叉树约束的编码单元的划分方法及视频编码方法

    公开(公告)号:CN104202612B

    公开(公告)日:2018-11-02

    申请号:CN201410151037.4

    申请日:2014-04-15

    Abstract: 本发明公开了一种基于四叉树约束的编码单元的划分方法及视频编码方法。编码单元的划分方法包括步骤:输入两个以上视点视频纹理图像和深度图像序列;记录各独立视点的最大编码单元的划分层次信息;获取最大编码单元中各个存储单元在独立视点中的匹配单元;得到最大编码单元对应的子分块的初步划分层次图;利用四叉树约束条件对初步划分层次图进行校正;输出当前编码视点各最大编码单元的划分。视频编码方法中对编码单元的划分采用上述划分方法。本发明利用独立视点的编码单元的划分信息来帮助非独立视点进行编码单元的划分,并利用四叉树约束条件对编码单元划分层次图进行校正,避免了现有的复杂算法,加速了整个编码单元划分的过程,提高了效率。

    一种鲁棒的双目立体图像拼接方法

    公开(公告)号:CN108470324A

    公开(公告)日:2018-08-31

    申请号:CN201810236089.X

    申请日:2018-03-21

    Abstract: 本发明公开了一种鲁棒的双目立体图像拼接方法,包括:采用双目相机采集两组图像,分别计算每组图像的左右视图之间的视差图;提取每组图像的特征点,并对所述特征点进行描述;将每组图像的特征点进行GMS特征点匹配,筛选出错误的匹配以得到准确的特征点对集合;根据视图差以及特征点对集合设定新的特征约束条件,得到使所述特征约束条件最优的单应性变换,利用该单应性变换对第二组图像进行全局变换,对第二组图像中相对于第一组图像的非重叠区域采用局部形状保持变换;分别融合变换后的左视图和右视图,得到拼接后的左视图和右视图,再进行合成得到最终的立体图。本发明不仅可以实现无缝拼接,而且算法具有一定的鲁棒性。

    一种光场相机的图像恢复方法及装置

    公开(公告)号:CN104363369B

    公开(公告)日:2017-11-03

    申请号:CN201410654936.6

    申请日:2014-11-17

    Abstract: 本发明公开了一种光场相机的图像恢复方法及装置,该方法包括如下步骤:获取系统点扩散函数步骤,获取所述光场相机的包括主透镜和微透镜阵列形成的系统点扩散函数,其中,物体在所述系统点扩散函数的卷积作用下,在成像传感器上形成图像;图像恢复步骤,将所述图像根据所述系统点扩散函数进行反卷积运算,获取物体的原始数据。本发明在现有的基于微透镜阵列的广场相机的基础上,能够获得更高的图像分辨率。

    一种深度图恢复方法
    7.
    发明授权

    公开(公告)号:CN105657402B

    公开(公告)日:2017-09-29

    申请号:CN201610031320.2

    申请日:2016-01-18

    Abstract: 本发明公开了一种深度图恢复方法,包括如下步骤:A1:由相当大数量的各类物体的深度图构成训练集;A2:建立卷积神经网络(CNN),采取核分离方法,获得隐藏层的参数,建立卷积网络结构,利用训练集中的深度图训练网络结构、调整网络权重;A3:在CNN的输出层,针对可能的结果建立自回归(AR,auto‑regression)模型,并建立评价指标;A4:将深度传感器获得的原始深度图输入CNN中,通过去噪、分类后,由AR模型恢复,通过评价指标检测,若不合要求则将结果图输入A2中,直到得到高质量深度图或终止循环。本发明采用了深度卷积网络来恢复从深度传感器获得的低分辨率、低信噪比的图像。利用本发明能够显著提高深度图的质量,同时也简化了获得深度图的方法。

    一种图像的超分辨率重建方法

    公开(公告)号:CN106886978A

    公开(公告)日:2017-06-23

    申请号:CN201710084743.5

    申请日:2017-02-16

    Abstract: 本发明公开了一种图像的超分辨率重建方法,包括以下步骤:A1,计算待处理的低分辨率图像对应的高分辨率图像,将得到的初始的高分辨图像分块,计算各图像块的中心像素点的位置向量p所对应的结构张量Sw(p);A2,计算各图像块的结构张量Sw(p)的特征值,判断图像块是否为平滑图像块;A3,在图像块为平滑图像块时,将初始的高分辨率图像块作为该图像块的最终高分辨率图像块;A4,在图像块为非平滑图像块时,结合图论进行重建计算;A5,待所有图像块得到最终的高分辨率图像块后,得到最终重建的高分辨率图像;重建时,对于重叠区域的像素点,取该像素点对应的两高分辨率像素值的平均值。本发明的超分辨率重建方法,可降低计算的复杂度,节省处理时间。

    一种光场图像的显著性检测方法

    公开(公告)号:CN105701813A

    公开(公告)日:2016-06-22

    申请号:CN201610018667.3

    申请日:2016-01-11

    CPC classification number: G06T2207/10148

    Abstract: 本发明公开了一种光场图像的显著性检测方法,包括如下步骤:S1、对光场图像的不同位置进行重聚焦得到N个聚焦图像,将所述N个聚焦图像融合得到全聚焦图像,N为正整数;S2、计算每个聚焦图像中各个像素点的聚焦度F(x,y):其中,x和y分别表示像素点(x,y)的横坐标和纵坐标,Gx和Gy分别表示像素点(x,y)x方向和y方向的灰度梯度值;S3、计算每一个聚焦图像的一维聚焦度分布;S4、计算每个聚焦图像的背景层近似度;S5、将最大的背景层近似度BLS(Ii)对应的聚焦图像作为所述全聚焦图像的背景层。本发明能够将背景准确地检测并分离出来,能对前景信息进行颜色对比度等处理从而获取到准确的显著图。

    一种深度图恢复方法
    10.
    发明公开

    公开(公告)号:CN105657402A

    公开(公告)日:2016-06-08

    申请号:CN201610031320.2

    申请日:2016-01-18

    CPC classification number: H04N13/275 H04N13/128

    Abstract: 本发明公开了一种深度图恢复方法,包括如下步骤:A1:由相当大数量的各类物体的深度图构成训练集;A2:建立卷积神经网络(CNN),采取核分离方法,获得隐藏层的参数,建立卷积网络结构,利用训练集中的深度图训练网络结构、调整网络权重;A3:在CNN的输出层,针对可能的结果建立自回归(AR,auto-regression)模型,并建立评价指标;A4:将深度传感器获得的原始深度图输入CNN中,通过去噪、分类后,由AR模型恢复,通过评价指标检测,若不合要求则将结果图输入A2中,直到得到高质量深度图或终止循环。本发明采用了深度卷积网络来恢复从深度传感器获得的低分辨率、低信噪比的图像。利用本发明能够显著提高深度图的质量,同时也简化了获得深度图的方法。

Patent Agency Ranking