一种基于卡尔曼滤波的由光场EPI重建稠密深度方法

    公开(公告)号:CN113610961B

    公开(公告)日:2022-12-09

    申请号:CN202110897506.7

    申请日:2021-08-05

    Abstract: 本发明公开了一种基于卡尔曼滤波的由光场EPI重建稠密深度方法,该方法包括:步骤1,根据由(u,v)平面和(x,y)平面组成的双平面光场数据L(u,v,x,y),获取不同方向的光场EPI;步骤2,在不同方向的光场EPI中通过卡尔曼滤波搜索匹配;步骤3,将步骤2获得的不同方向的光场EPI的匹配点集合进行拼接,并将拼接后的离散点进行拟合成直线;步骤4,深度重建:在光场计算成像中,光场数据中相邻视点之间的视差与深度图存在反比例关系,因此使得深度重建问题被转化为视差重建问题。本发明能够为基于光场的数字重聚焦和三维场景重构提供高精度的深度信息。

    一种基于视觉特征聚合的光场质量评价方法

    公开(公告)号:CN112967242A

    公开(公告)日:2021-06-15

    申请号:CN202110218843.9

    申请日:2021-02-26

    Inventor: 刘畅 邱钧 邹卓成

    Abstract: 本发明公开了一种基于视觉特征聚合的光场质量评价方法,该方法包括:步骤1,获取光场数据集;步骤2,提取每一四维光场的视觉特征,得到每个四维光场的视觉聚合特征;视觉特征为四维光场的中心子孔径图像的特征向量LFCV、宏像素图上的特征向量LFMLI、极平面图像上的灰度共生矩阵特征向量LFEPI、以及不同重聚焦面上重聚焦图的特征向量LFRI中的一种或一种以上的组合;LFCV用于描述光场在空间清晰度上质量变化情况,LFMLI用于描述光场在角度域一致性退化情况,LFEPI用于描述光场在空‑角耦合域上结构变化情况,LFRI用于描述光场在投影域上的质量变化情况;步骤3,根据所述视觉聚合特征,使用支持向量回归训练得到光场质量分数评测模型;步骤4,通过光场质量分数评测模型评价光场的质量分数。本发明计算得到的光场质量客观评价分数与主观评价分数有较高的一致性。

    一种基于RGB-D的场景三维特征点高效提取方法

    公开(公告)号:CN107886101B

    公开(公告)日:2021-06-15

    申请号:CN201711293628.5

    申请日:2017-12-08

    Abstract: 本发明公开了一种基于RGB‑D的场景三维特征点高效提取方法,其中,包括以下步骤:步骤101,利用透视投影模型,给出RGB‑D图像保三维几何结构的降维计算方法,得到场景在相机坐标系中的参数表示;步骤102,由扩散方程出发,利用有限差分与尺度空间理论,建立检测RGB‑D图像三维特征点的RGB‑D尺度空间;步骤103,在RGB‑D尺度空间上极值检测,获取特征点的位置;以及步骤104,利用子像元插值法,精确定位特征点,并筛除低对比度和边缘响应点,增强特征匹配稳定性和抗噪能力。通过采用本发明提供的方法,进行图像的三维特征提取,可以为后续图像配准、图像拼接、目标跟踪与识别等提供大量稳定的图像特征。

    基于RGB-D超像素分割的聚焦堆栈数据拼接融合的方法及系统

    公开(公告)号:CN112669355A

    公开(公告)日:2021-04-16

    申请号:CN202110006480.2

    申请日:2021-01-05

    Abstract: 本发明公开了一种基于RGB‑D超像素分割的聚焦堆栈数据拼接融合方法及系统,该方法包括:步骤1,由聚焦堆栈数据计算生成全聚焦图与深度图,即准确配准的RGB‑D数据;步骤2,将低分辨率的2D大视场图像上采样至与RGB‑D数据尺度一致;步骤3,对RGB‑D数据进行超像素分割;步骤4,提取并匹配全聚焦图与大视场2D图像之间的特征点,计算同一深度层超像素的准确单应性变换矩阵;步骤5,逐深度层进行超像素变换实现全聚焦图和深度图的拼接融合;步骤6,由大视场的RGB‑D数据生成大视场的聚焦堆栈数据。本发明能够实现多组不同视角下的聚焦堆栈数据的拼接融合。

    一种单目视觉聚焦堆栈采集与场景重建方法

    公开(公告)号:CN108053468B

    公开(公告)日:2021-02-26

    申请号:CN201711293627.0

    申请日:2017-12-08

    Abstract: 本发明公开了一种单目视觉聚焦堆栈采集与场景重建方法,其包括:通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;根据对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系;根据电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系;根据电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函数计算每一物点的深度,输出场景深度图和全聚焦图,以重构三维场景。本发明能够来满足对相机拍摄视场(FOV)下三维场景重构、图像深度信息和全聚焦的需求,生成深度图和全聚焦图像。

    一种由螺旋采样光场数据重建三维物体的方法

    公开(公告)号:CN111932648A

    公开(公告)日:2020-11-13

    申请号:CN202010766903.6

    申请日:2020-08-03

    Abstract: 本发明公开了一种由螺旋采样光场数据重建三维物体的方法,其包括:步骤1,将螺旋采样光场数据表示为Ls(x,y,Φ):相机采集到的光场数据为螺旋采样光场数据,s表示螺距, 为螺旋角度,表示在第k层下的旋转角度,x、y分别为相机的探测器平面在世界坐标系中的横、纵坐标;步骤2,建立物点在螺旋采样光场下的理想轨迹方程;步骤3,进行亚光圈区域匹配,追踪匹配点在螺旋采样光场数据中的轨迹;步骤4,对轨迹进行参数拟合,得到匹配点的三维坐标,重构三维物体。本发明方法能够实现高精度的物体三维表面重构,由于与螺旋CT数据采集模式相匹配,可与螺旋CT一起构成同时重构物体表面和内部结构信息的双模态成像系统。

Patent Agency Ranking