一种基于四分暗通道均值比较的偏振双图像去雾方法

    公开(公告)号:CN113610728A

    公开(公告)日:2021-11-05

    申请号:CN202110898424.4

    申请日:2021-08-05

    Inventor: 刘畅 邱钧

    Abstract: 本发明公开了一种基于四分暗通道均值比较的偏振双图像去雾方法,该方法包括以下步骤:步骤1,通过镜头前加装有偏振片的相机,获取预设的偏振片旋转角度的偏振带雾图像;步骤2,根据多幅所述偏振带雾图像,获取光强最大的图像I⊥和光强最小的图像I||;步骤3,根据I⊥和I||,获得原始带雾图像I以及估计无穷远处大气光强A∞;步骤4,对I进行去雾处理,获得去雾后的图像L。本发明能够使最终输出的图像清晰化,对比度变高,梯度增强。

    一种基于双平面平移变换的大视场光场数据融合方法

    公开(公告)号:CN111882487A

    公开(公告)日:2020-11-03

    申请号:CN202010694170.X

    申请日:2020-07-17

    Abstract: 本发明公开了一种基于双平面平移变换的大视场光场数据融合方法,该方法包括:步骤1,对世界坐标系下的双平面光场进行参数化描述;步骤2,建立描述两组双平面平移变换关系的平移变换矩阵;步骤3,提取第一组双平面光场的中心视图的特征点,由于每个特征点对应光场的一个特征光线,因此可以通过匹配特征光线,得到特征光线在第二组双平面光场中对应的像点和视点,再根据特征光线在第一组双平面光场和第二组双平面光场中的空间关系,求解两组双平面平移变换关系的平移变换矩阵;步骤4,利用两组双平面的平移变换矩阵,将第一组双平面光场变换到第二组双平面光场,完成大视场光场数据的拼接融合。本发明方法能够实现基于解析变换关系的精确双平面光场拼接方法,解决了光场拼接时两个双平面拼接不一致的问题。

    基于聚焦像点的微透镜阵列型光场相机几何参数标定方法

    公开(公告)号:CN109325981A

    公开(公告)日:2019-02-12

    申请号:CN201811070094.4

    申请日:2018-09-13

    CPC classification number: G06T7/80 G06T2207/10052

    Abstract: 本发明公开了一种基于聚焦像点的微透镜阵列型光场相机几何参数标定方法,该方法包括以下步骤:S1,根据微透镜阵列型光场相机的聚焦成像光路图,得到物点与聚焦像点关于主透镜的映射关系;S2,根据微透镜阵列型光场相机的聚焦成像光路图,得到聚焦像点与探测器像点关于微透镜的映射关系;S3,根据检测得到的探测器像点,求解聚焦像点的坐标;S4,根据S3获得的聚焦像点的坐标,求解标定模型中的相机内部参数矩阵和外部参数矩;S5,通过S4获得的相机内部参数矩阵和外部参数矩阵,标定微透镜阵列型光场相机的几何参数。通过采用本发明提供的方法,进行微透镜阵列型光场相机的几何参数标定,可以为后续光场数据校准和实现计算成像提供可靠的参数。

    一种基于Wigner分布函数的全聚焦扫描成像方法

    公开(公告)号:CN109257524A

    公开(公告)日:2019-01-22

    申请号:CN201811070102.5

    申请日:2018-09-13

    Inventor: 刘畅 邱钧 高姗

    CPC classification number: H04N5/217 G06T5/002

    Abstract: 本发明公开了一种基于Wigner分布函数的全聚焦扫描成像方法,该方法包括:S1,通过Winger分布函数描述波前;S2,根据波前的Winger分布函数建立基于Winger分布函数的光传播模型,并利用基于Winger分布函数的光传播模型建立全聚焦成像模型;S3,在全聚焦成像模型中,利用基于Winger分布函数的光传播模型,推演得到成像系统的点扩散函数;S4,分析成像系统的点扩散函数,将全聚焦扫描得到的数据表达成全聚焦图像和点扩散函数的卷积;S5,根据全聚焦图像和点扩散函数的卷积,利用反卷积方法计算全聚焦图像。通过采用本发明提供的方法,基于聚焦扫描装置获取的聚焦扫描数据,可以实现清晰的全聚焦成像,同时也可以为聚焦扫描成像模型的景深拓展性能分析与扫描范围的选择提供了理论依据。

    一种基于RGB-D的场景三维特征点高效提取方法

    公开(公告)号:CN107886101A

    公开(公告)日:2018-04-06

    申请号:CN201711293628.5

    申请日:2017-12-08

    CPC classification number: G06K9/4604

    Abstract: 本发明公开了一种基于RGB-D的场景三维特征点高效提取方法,其中,包括以下步骤:步骤101,利用透视投影模型,给出RGB-D图像保三维几何结构的降维计算方法,得到场景在相机坐标系中的参数表示;步骤102,由扩散方程出发,利用有限差分与尺度空间理论,建立检测RGB-D图像三维特征点的RGB-D尺度空间;步骤103,在RGB-D尺度空间上极值检测,获取特征点的位置;以及步骤104,利用子像元插值法,精确定位特征点,并筛除低对比度和边缘响应点,增强特征匹配稳定性和抗噪能力。通过采用本发明提供的方法,进行图像的三维特征提取,可以为后续图像配准、图像拼接、目标跟踪与识别等提供大量稳定的图像特征。

Patent Agency Ranking