-
公开(公告)号:CN108053367B
公开(公告)日:2021-04-20
申请号:CN201711293629.X
申请日:2017-12-08
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于RGB‑D特征匹配的3D点云拼接与融合方法,该方法主要包括:将不同视点的场景表面3D点云数据投影到RGB‑D图像进行处理,实现三维点云降至二维的降维计算;提取RGB‑D图像特征点,建立RGB‑D图像的特征描述,对不同视点RGB‑D图像进行匹配;求解坐标及深度变换矩阵,对RGB‑D图像进行拼接与融合;将拼接后的RGB‑D图像转化为3D点云数据。通过采用本发明提供的方法,可以简化三维点云特征提取和匹配的计算,提高三维点云拼接和融合的效率。可应用于3D大视场与3D全景的场景重建。
-
公开(公告)号:CN106934110B
公开(公告)日:2021-02-26
申请号:CN201710090372.1
申请日:2017-02-20
Applicant: 北京信息科技大学
IPC: G06F30/20 , G06T17/00 , G06F111/10
Abstract: 本发明公开了一种由聚焦堆栈重建光场的滤波反投影方法和装置,主要包括:给出四维光场与聚焦堆栈的几何关系,建立由光场形成聚焦堆栈的投影模型,形成投影算子;以投影模型为基础,建立四维光场与聚焦堆栈的频域关系,形成傅立叶切片关系;基于傅立叶切片关系,建立由聚焦堆栈重建光场的滤波反投影和卷积反投影方法;选取优化的滤波函数和卷积函数重建光场。本发明的聚焦堆栈是探测器和镜头相对移动采集得到的图像序列,通过选取优化的滤波函数和卷积函数,可重建出高精度的四维光场。四维光场可实现相机拍摄视角下的三维重构,可以为虚拟现实和几何测量提供精确的三维结构信息。
-
公开(公告)号:CN111598997A
公开(公告)日:2020-08-28
申请号:CN202010398746.8
申请日:2020-05-12
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于聚焦堆栈单体数据子集架构的全局计算成像方法,该方法包括:步骤1,从场景图像聚焦堆栈数据中找出聚焦测度最大的场景图像;步骤2,在场景图像中划分所有单体区域对应的区域图像;步骤3,在最大聚焦测度的场景图像的单体区域图像上,找出单体区域;步骤4,利用单体区域找出第j个单体的聚焦堆栈数据;步骤5,在单体区域中选定代表区域,从第j个单体的聚焦堆栈数据的I个场景图像中筛选出V个场景图像,得到第j个单体的第v个图像和聚焦堆栈单体数据子集;步骤6,对单体进行深度重建和全聚焦成像;步骤7,局部一致性优化;步骤8,全局融合。本发明能够提高聚焦堆栈重建的计算的效率、实现三维场景单体的高精度重建。
-
公开(公告)号:CN106920267B
公开(公告)日:2020-07-17
申请号:CN201710110556.X
申请日:2017-02-28
Applicant: 北京信息科技大学
IPC: G06T11/00
Abstract: 本发明公开了一种基于对称权重场和旋转重建点的快速重建图像方法和装置,所述方法包括:建立图像重建几何模型,包括基于射线追踪的投影模型和基于重建点追踪的反投影模型;建立图像重建几何模型的权重场,给出图像重建几何模型的对称结构,结合扫描模式的旋转重建点离散化模型,将正演过程和反演过程归结为投影平面上的插值采样过程;图像重建离散化几何模型的对称结构性质:不同的投影角度下的正演过程和反演过程的具有相同的计算,简化计算提高重建速度;基于对称权重场和旋转重建点,建立图像重建快速方法。采用本发明的方案,实现计算机断层技术的快速重建,可以为医学CT、工业无损检测和地质勘探等应用领域更快地重建出高精度图像。
-
公开(公告)号:CN108053468A
公开(公告)日:2018-05-18
申请号:CN201711293627.0
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06T17/00 , H04N13/207 , H04N13/271 , H04N5/232
Abstract: 本发明公开了一种单目视觉聚焦堆栈采集与场景重建方法,其包括:通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;根据对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系;根据电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系;根据电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函计算每一物点的深度,输出场景深度图和全聚焦图,以重构三维场景。本发明能够来满足对相机拍摄视场(FOV)下三维场景重构、图像深度信息和全聚焦的需求,生成深度图和全聚焦图像。
-
公开(公告)号:CN107945221A
公开(公告)日:2018-04-20
申请号:CN201711293626.6
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06T7/33
CPC classification number: G06T7/344 , G06T2207/10024
Abstract: 本发明公开了一种基于RGB-D图像的三维场景特征表达与高精度匹配方法,利用透视投影模型和尺度空间理论,检测并提取RGB-D图像的三维特征点;利用圆的旋转不变性,为每一个特征点选定以其为圆心的四个同心圆区域为此特征点所需的特征描述区域;在每个圆环区域以及最里面的中心圆区域内分别计算像素点的梯度模值和方向,建立方向直方图,其中,“圆环区域”为相邻的两同心圆之间的环形区域;利用方向直方图,建立环形描述子,对每一个特征点进行特征描述,生成特征向量,并根据特征向量间的欧式距离匹配特征点。通过采用本发明提供的方法,对RGB-D图像进行三维特征表达与匹配,避免了主方向的分配、降低特征向量的维数,为后续特征匹配降低了计算量、节省了时间,实现特征匹配的实时性。
-
公开(公告)号:CN106023189A
公开(公告)日:2016-10-12
申请号:CN201610325812.2
申请日:2016-05-17
Applicant: 北京信息科技大学
IPC: G06T7/00
CPC classification number: G06T2207/10028
Abstract: 本发明公开了一种基于匹配优化的光场数据深度重建方法,包括:在四维光场中基于加权的区域匹配算法建立视差的目标函数,求解所述目标函数得到初步视差图;建立置信函数,根据所述置信函数的取值将所述初步视差图中的匹配像素分为准确匹配像素和误匹配像素;对所述目标函数设置阈值,根据所述阈值将所述误匹配像素分为平滑误匹配像素和边缘遮挡误匹配像素;以及对所述平滑误匹配像素进行平滑处理,对所述遮挡误匹配像素进行自适应匹配,以便优化所述视差图,并根据优化后的视差图输出场景深度。通过采用本发明提供的方法,能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN105976431A
公开(公告)日:2016-09-28
申请号:CN201610345960.0
申请日:2016-05-23
Applicant: 北京信息科技大学
IPC: G06T17/30
CPC classification number: G06T17/30 , G06T2200/04 , G06T2200/08
Abstract: 本发明公开了一种基于旋转光场的三维表面重构方法,包括:(1)对旋转光场进行参数化表征,建立重构物体与旋转光场的几何关系;(2)从旋转采样光场中提取每个视点图像的特征点,追踪匹配成功的特征点的坐标轨迹,对坐标轨迹进行参数拟合得到正弦函数曲线;(3)由特征点与旋转光场的几何关系,得到特征点与旋转角度在旋转光场中的正弦函数,根据拟合得到的所述正弦函数曲线计算特征点的三维坐标,重构三维图像,并实现三维测量。通过采用本发明提供的基于旋转光场三维表面重构方法,实现了全视角的三维表面重构,可以为虚拟现实和增强现实提供全视角精确的三维结构信息。
-
公开(公告)号:CN119515718A
公开(公告)日:2025-02-25
申请号:CN202411582663.9
申请日:2024-11-07
Applicant: 北京信息科技大学 , 中国绿化基金会 , 山东黄河三角洲国家级自然保护区管理委员会
Abstract: 本发明公开了一种基于隐式神经表示的珍稀鸟类虚拟数字化方法和系统,其包括:步骤1,创建输入数据;步骤2,将珍稀鸟类重建区域的空间位置坐标X经过傅立叶特征映射为高维傅立叶特征向量γ(X),在X处设自适应可学习滤波器HB(α(X)),HB(α(X))包含控制HB(α(X))的维度用的B和控制HB(α(X))滤波初始位置用的α(X);步骤3,将HB(α(X))与γ(X)结合,得到MLPs网络Fθ的第1层的隐藏单元z(1),以得到X处的颜色和体密度;步骤4,通过体渲染技术,生成珍稀鸟类静态背景的新视角和新姿势图。本发明能够仅通过单目相机采集到的数据,快速渲染出任意视角的珍稀鸟类高质量图片,在处理珍稀鸟类复杂的形态和细节时表现出色。
-
公开(公告)号:CN119151783A
公开(公告)日:2024-12-17
申请号:CN202410944662.8
申请日:2024-07-15
Applicant: 北京信息科技大学
IPC: G06T3/4053 , G06T3/4046 , G06T7/00 , G06N3/0455 , G06N3/088
Abstract: 本发明涉及一种基于条件VAE模型的光场角度超分辨方法,属于计算成像、机器视觉与数字图像处理技术领域,包括如下步骤:通过采集视点平面等间隔稀疏的光场子孔径图像阵列LFγ和中心子孔径图像LF0分别输入视差估计模块(P)和特征提取模块(F),获得场景初始视差图和不同层级的中心子孔径特征;本发明可以不依赖大规模的高分辨率训练数据集,可对全部光场子孔径图像同步做角度域的超分辨重构,设计一种基于光场数据的空角一致性混合损失函数,使新模型在重构角度高分辨率的子孔径图像时能够利用耦合在子孔径图像种的视差信息,在合成和真实数据集上数值实验结果接近有监督方法,同时能够满足基于深度学习的方法对光场角度域的超分辨。
-
-
-
-
-
-
-
-
-