-
公开(公告)号:CN111932601B
公开(公告)日:2023-06-06
申请号:CN202010766902.1
申请日:2020-08-03
Abstract: 本发明公开了一种基于YCbCr颜色空间光场数据的稠密深度重建方法,该方法包括以下步骤:步骤1,获取YCbCr颜色空间光场数据;步骤2,在Y通道标记平滑区域;步骤3,在CbCr通道进行语义分割;步骤4,在Y通道进行区域匹配;步骤5,优化匹配视差,并计算场景深度。通过采用本发明提供的方法,能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN110827338B
公开(公告)日:2022-08-16
申请号:CN201911063001.X
申请日:2019-10-31
Applicant: 山东黄河三角洲国家级自然保护区管理委员会 , 北京信息科技大学
Abstract: 本发明公开了一种分区域自适应匹配的光场数据深度重建方法,所述分区域自适应匹配的光场数据深度重建方法包括以下步骤:步骤110,定义中心视图与待匹配视图中的待匹配像素点的距离测度函数;步骤120,为不同区域的待匹配像素点选择不同的匹配窗口,其中,所述不同区域包括纹理区域、平滑区域和边缘遮挡区域;步骤130,统计匹配窗口正确匹配像素点的个数作为窗口的距离测度值,并在所述平滑区域加上平滑因子;步骤140,优化匹配视差,并计算场景深度。本发明能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN109325981B
公开(公告)日:2020-10-02
申请号:CN201811070094.4
申请日:2018-09-13
Applicant: 北京信息科技大学
IPC: G06T7/80
Abstract: 本发明公开了一种基于聚焦像点的微透镜阵列型光场相机几何参数标定方法,该方法包括以下步骤:S1,根据微透镜阵列型光场相机的聚焦成像光路图,得到物点与聚焦像点关于主透镜的映射关系;S2,根据微透镜阵列型光场相机的聚焦成像光路图,得到聚焦像点与探测器像点关于微透镜的映射关系;S3,根据检测得到的探测器像点,求解聚焦像点的坐标;S4,根据S3获得的聚焦像点的坐标,求解标定模型中的相机内部参数矩阵和外部参数矩;S5,通过S4获得的相机内部参数矩阵和外部参数矩阵,标定微透镜阵列型光场相机的几何参数。通过采用本发明提供的方法,进行微透镜阵列型光场相机的几何参数标定,可以为后续光场数据校准和实现计算成像提供可靠的参数。
-
公开(公告)号:CN113610961A
公开(公告)日:2021-11-05
申请号:CN202110897506.7
申请日:2021-08-05
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于卡尔曼滤波的由光场EPI重建稠密深度方法,该方法包括:步骤1,根据由(u,v)平面和(x,y)平面组成的双平面光场数据L(u,v,x,y),获取不同方向的光场EPI;步骤2,在不同方向的光场EPI中通过卡尔曼滤波搜索匹配;步骤3,将步骤2获得的不同方向的光场EPI的匹配点集合进行拼接,并将拼接后的离散点进行拟合成直线;步骤4,深度重建:在光场计算成像中,光场数据中相邻视点之间的视差与深度图存在反比例关系,因此使得深度重建问题被转化为视差重建问题。本发明能够为基于光场的数字重聚焦和三维场景重构提供高精度的深度信息。
-
公开(公告)号:CN109325981A
公开(公告)日:2019-02-12
申请号:CN201811070094.4
申请日:2018-09-13
Applicant: 北京信息科技大学
IPC: G06T7/80
CPC classification number: G06T7/80 , G06T2207/10052
Abstract: 本发明公开了一种基于聚焦像点的微透镜阵列型光场相机几何参数标定方法,该方法包括以下步骤:S1,根据微透镜阵列型光场相机的聚焦成像光路图,得到物点与聚焦像点关于主透镜的映射关系;S2,根据微透镜阵列型光场相机的聚焦成像光路图,得到聚焦像点与探测器像点关于微透镜的映射关系;S3,根据检测得到的探测器像点,求解聚焦像点的坐标;S4,根据S3获得的聚焦像点的坐标,求解标定模型中的相机内部参数矩阵和外部参数矩;S5,通过S4获得的相机内部参数矩阵和外部参数矩阵,标定微透镜阵列型光场相机的几何参数。通过采用本发明提供的方法,进行微透镜阵列型光场相机的几何参数标定,可以为后续光场数据校准和实现计算成像提供可靠的参数。
-
公开(公告)号:CN113610961B
公开(公告)日:2022-12-09
申请号:CN202110897506.7
申请日:2021-08-05
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于卡尔曼滤波的由光场EPI重建稠密深度方法,该方法包括:步骤1,根据由(u,v)平面和(x,y)平面组成的双平面光场数据L(u,v,x,y),获取不同方向的光场EPI;步骤2,在不同方向的光场EPI中通过卡尔曼滤波搜索匹配;步骤3,将步骤2获得的不同方向的光场EPI的匹配点集合进行拼接,并将拼接后的离散点进行拟合成直线;步骤4,深度重建:在光场计算成像中,光场数据中相邻视点之间的视差与深度图存在反比例关系,因此使得深度重建问题被转化为视差重建问题。本发明能够为基于光场的数字重聚焦和三维场景重构提供高精度的深度信息。
-
公开(公告)号:CN111932601A
公开(公告)日:2020-11-13
申请号:CN202010766902.1
申请日:2020-08-03
Abstract: 本发明公开了一种基于YCbCr颜色空间光场数据的稠密深度重建方法,该方法包括以下步骤:步骤1,获取YCbCr颜色空间光场数据;步骤2,在Y通道标记平滑区域;步骤3,在CbCr通道进行语义分割;步骤4,在Y通道进行区域匹配;步骤5,优化匹配视差,并计算场景深度。通过采用本发明提供的方法,能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN110827338A
公开(公告)日:2020-02-21
申请号:CN201911063001.X
申请日:2019-10-31
Abstract: 本发明公开了一种分区域自适应匹配的光场数据深度重建方法,所述分区域自适应匹配的光场数据深度重建方法包括以下步骤:步骤110,定义中心视图与待匹配视图中的待匹配像素点的距离测度函数;步骤120,为不同区域的待匹配像素点选择不同的匹配窗口,其中,所述不同区域包括纹理区域、平滑区域和边缘遮挡区域;步骤130,统计匹配窗口正确匹配像素点的个数作为窗口的距离测度值,并在所述平滑区域加上平滑因子;步骤140,优化匹配视差,并计算场景深度。本发明能够在四维光场理论下实现高精度的深度重建。
-
-
-
-
-
-
-