-
公开(公告)号:CN111932601B
公开(公告)日:2023-06-06
申请号:CN202010766902.1
申请日:2020-08-03
Abstract: 本发明公开了一种基于YCbCr颜色空间光场数据的稠密深度重建方法,该方法包括以下步骤:步骤1,获取YCbCr颜色空间光场数据;步骤2,在Y通道标记平滑区域;步骤3,在CbCr通道进行语义分割;步骤4,在Y通道进行区域匹配;步骤5,优化匹配视差,并计算场景深度。通过采用本发明提供的方法,能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN110956668A
公开(公告)日:2020-04-03
申请号:CN201911228319.9
申请日:2019-12-04
Abstract: 本发明公开了一种基于聚焦测度的聚焦堆栈成像系统预置位标定方法,该方法包括:步骤1,设置预置位标定环境;步骤2,采集预置位标定环境中的标定板在预置位及其对应的II型标识线的图像;步骤3,计算采集的每一幅图像的聚焦测度,通过数据拟合得到最大聚焦测度对应的预置位;步骤4,采用对同一个预置位进行多次标定的方法,由多次标定结果的均值和方差预置位的重复性和标定的准确性予以验证;步骤5,利用标定好的预置位,采集实际场景的聚焦堆栈数据,并重建场景深度图和全聚焦图。本发明能够提高聚焦堆栈数据采集的效率、实现三维场景深度的高精度重建,同时也可以为三维数字化空间的建立、计算方法的改进提供参考和理论依据。
-
公开(公告)号:CN111932601A
公开(公告)日:2020-11-13
申请号:CN202010766902.1
申请日:2020-08-03
Abstract: 本发明公开了一种基于YCbCr颜色空间光场数据的稠密深度重建方法,该方法包括以下步骤:步骤1,获取YCbCr颜色空间光场数据;步骤2,在Y通道标记平滑区域;步骤3,在CbCr通道进行语义分割;步骤4,在Y通道进行区域匹配;步骤5,优化匹配视差,并计算场景深度。通过采用本发明提供的方法,能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN110827338A
公开(公告)日:2020-02-21
申请号:CN201911063001.X
申请日:2019-10-31
Abstract: 本发明公开了一种分区域自适应匹配的光场数据深度重建方法,所述分区域自适应匹配的光场数据深度重建方法包括以下步骤:步骤110,定义中心视图与待匹配视图中的待匹配像素点的距离测度函数;步骤120,为不同区域的待匹配像素点选择不同的匹配窗口,其中,所述不同区域包括纹理区域、平滑区域和边缘遮挡区域;步骤130,统计匹配窗口正确匹配像素点的个数作为窗口的距离测度值,并在所述平滑区域加上平滑因子;步骤140,优化匹配视差,并计算场景深度。本发明能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN118279455A
公开(公告)日:2024-07-02
申请号:CN202410461983.2
申请日:2024-04-17
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于单目视觉的动态人体神经辐射场重构方法和装置,其包括:步骤1,通过相机采集动态人体视频,将动态人体视频进行分帧处理,得到预设间隔帧数的图片;步骤2,根据步骤1获得的图片,将人体的预设关键点的位置信息作为点提示,通过基于大模型SAM的场景动静分解模块,获得每帧图片的人体掩码,进而获得分解后的动态人体和静态背景;步骤3,利用式(1)描述的动态人体神经辐射场模型#imgabs0#获得动态人体的颜色ch和体密度σh,利用静态背景人体神经辐射场获得静态背景的颜色cs和体密度;#imgabs1#步骤4,通过体渲染技术,将步骤3获得的动态人体在规范空间中三维点的颜色和体密度,生成动态人体的新视角和新姿势图。本发明能够实现不使用多目视觉同步采集设备,仅通过单目相机采集到的数据,渲染出任意视角,任意姿态的动态人体,并可有效捕捉动态人体和静态背景的细节信息,得到具有高真实性和准确性的动静联合重构结果。
-
公开(公告)号:CN117171605B
公开(公告)日:2024-02-20
申请号:CN202311453699.2
申请日:2023-11-03
IPC: G06F18/23213 , G01S19/37
Abstract: 本发明公开了一种基于GPS数据的迁徙鸟类轨迹分割方法,其包括:步骤1,获取鸟类个体的GPS数据;步骤2,将GPS数据中不符合条件的数据去除,将剩下的数据按时间依正序排列,每一数据作为一个位点,获得的所有位点构成点集;步骤3,将点集进行聚类,获得多个聚类,再将聚类中的有效类划分成运动类或静止类,计算每一有效类的统计结果;步骤4,根据点集,采用停留点检测算法,获得多个类,再将该类划分成运动类或静止类,计算每一个类的统计结果;步骤5,对比步骤3和步骤4划分出的运动类和静止类的统计结果,选出最终的迁徙鸟类轨迹分割结果。本发明属于时空数据挖掘与处理技术领域,用于获得迁徙鸟类轨迹分割结果。
-
公开(公告)号:CN117196946A
公开(公告)日:2023-12-08
申请号:CN202311134318.4
申请日:2023-09-05
Applicant: 北京信息科技大学
IPC: G06T3/40 , G01N21/84 , G06N3/0455 , G06N3/048 , G06N3/09
Abstract: 本发明公开了一种基于自监督学习的光场空间域超分辨成像方法及装置,其包括:S1,采集原始低分辨率光场子孔径图像FLR;S2,利用基于自监督学习的光场超分辨模型,对FLR同步进行空间域的超分辨重构,获得光场数据FHR*;S2的基于自监督学习的光场超分辨模型的获取方法具体包括:S21,将随机编码向量z作为多尺度网络的输入,输出高分辨率的光场子孔径图像堆栈FHR;S22,将FLR在角度域中的数据维度为U×V的光场子孔径图像进行通道叠加,得到低分辨率光场子孔径图像堆栈 S23,对FHR在空间域进行t倍下采样,得到模拟低分辨率光场子孔径图像堆栈 S24,根据FHR和 描述基于自监督学习的光场超分辨模型。本发明能够满足基于深度学习的方法对光场超分辨不需要大量数据集的需要。
-
公开(公告)号:CN111598997B
公开(公告)日:2023-10-13
申请号:CN202010398746.8
申请日:2020-05-12
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于聚焦堆栈单体数据子集架构的全局计算成像方法,该方法包括:步骤1,从场景图像聚焦堆栈数据中找出聚焦测度最大的场景图像;步骤2,在场景图像中划分所有单体区域对应的区域图像;步骤3,在最大聚焦测度的场景图像的单体区域图像上,找出单体区域;步骤4,利用单体区域找出第j个单体的聚焦堆栈数据;步骤5,在单体区域中选定代表区域,从第j个单体的聚焦堆栈数据的I个场景图像中筛选出V个场景图像,得到第j个单体的第v个图像和聚焦堆栈单体数据子集;步骤6,对单体进行深度重建和全聚焦成像;步骤7,局部一致性优化;步骤8,全局融合。本发明能够提高聚焦堆栈重建的计算的效率、实现三维场景单体的高精度重建。
-
公开(公告)号:CN116805354A
公开(公告)日:2023-09-26
申请号:CN202311063067.5
申请日:2023-08-23
Abstract: 本发明公开了一种基于神经辐射场的珍稀鸟类三维模型重构方法与装置,其包括:步骤1,采集珍稀鸟类目标物的离散旋转光场数据;步骤2,估计离散旋转光场数据对应的场景多视点图像对应的相机位姿;步骤3,根据步骤2获取的场景多视点图像对应的相机位姿,获得多视点图像相机位姿的转换矩阵,进而通过NDC中的齐次坐标变换和射线变换,将步骤1采集到的珍稀鸟类目标物的离散旋转光场数据,转换到NDC空间中;步骤4,利用神经辐射场,在离散旋转光场数据NDC空间下生成旋转光场新视点图像;步骤5,根据步骤4生成的旋转光场新视点图像,重构珍稀鸟类三维模型。本发明属于计算机视觉和计算机图形学的技术。本发明用于重构珍稀鸟类三维模型。
-
公开(公告)号:CN116703770A
公开(公告)日:2023-09-05
申请号:CN202310684718.6
申请日:2023-06-09
Applicant: 北京信息科技大学
IPC: G06T5/00
Abstract: 本发明公开了一种基于频谱集中程度引入重参数化的光场去噪方法和装置,其包括:步骤1,通过极小化集中程度度量函数,计算重参数化光场双平面间距Dre;步骤2,按照重参数化光场双平面间距Dre对带噪光场进行重参数化,输出重参数化之后的带噪光场;步骤3,使用hyperfan滤波器对重参数化后的带噪光场进行去噪,输出去噪后的重参数化光场。本发明能够有较好的去噪效果,同时能够较好地保持场景边缘和反光等信息。
-
-
-
-
-
-
-
-
-