基于特征点追踪由聚焦堆栈重构三维场景的方法和装置

    公开(公告)号:CN106846469A

    公开(公告)日:2017-06-13

    申请号:CN201710091014.2

    申请日:2017-02-20

    Inventor: 刘畅 邱钧

    Abstract: 本发明公开了一种基于特征点追踪由聚焦堆栈重构三维场景的方法和装置,包括:建立由三维场景生成聚焦堆栈的正演模型,给出三维场景特征点与聚焦堆栈的几何关系;提取聚焦堆栈中每个图像的特征点,追踪匹配成功的特征点的坐标,得到特征点在聚焦堆栈中的轨迹;建立由聚焦堆栈重构三维场景的反演模型:由匹配成功的特征点,建立关于特征点三维坐标的方程组,通过求解方程组得到特征点的三维坐标,重构三维场景,并实现三维几何测量。本发明的聚焦堆栈是将探测器固定,通过沿光轴移动透镜完成聚焦堆栈的采集,采用本发明的方案,能够实现相机拍摄视角下的三维重构,可以为虚拟现实和几何测量提供精确的三维结构信息。

    一种基于条件VAE模型的光场角度超分辨方法

    公开(公告)号:CN119151783A

    公开(公告)日:2024-12-17

    申请号:CN202410944662.8

    申请日:2024-07-15

    Abstract: 本发明涉及一种基于条件VAE模型的光场角度超分辨方法,属于计算成像、机器视觉与数字图像处理技术领域,包括如下步骤:通过采集视点平面等间隔稀疏的光场子孔径图像阵列LFγ和中心子孔径图像LF0分别输入视差估计模块(P)和特征提取模块(F),获得场景初始视差图和不同层级的中心子孔径特征;本发明可以不依赖大规模的高分辨率训练数据集,可对全部光场子孔径图像同步做角度域的超分辨重构,设计一种基于光场数据的空角一致性混合损失函数,使新模型在重构角度高分辨率的子孔径图像时能够利用耦合在子孔径图像种的视差信息,在合成和真实数据集上数值实验结果接近有监督方法,同时能够满足基于深度学习的方法对光场角度域的超分辨。

    一种由螺旋采样光场数据重建三维物体的方法

    公开(公告)号:CN111932648B

    公开(公告)日:2023-05-12

    申请号:CN202010766903.6

    申请日:2020-08-03

    Abstract: 本发明公开了一种由螺旋采样光场数据重建三维物体的方法,其包括:步骤1,将螺旋采样光场数据表示为Ls(x,y,Φ):相机采集到的光场数据为螺旋采样光场数据,s表示螺距,为螺旋角度,表示在第k层下的旋转角度,x、y分别为相机的探测器平面在世界坐标系中的横、纵坐标;步骤2,建立物点在螺旋采样光场下的理想轨迹方程;步骤3,进行亚光圈区域匹配,追踪匹配点在螺旋采样光场数据中的轨迹;步骤4,对轨迹进行参数拟合,得到匹配点的三维坐标,重构三维物体。本发明方法能够实现高精度的物体三维表面重构,由于与螺旋CT数据采集模式相匹配,可与螺旋CT一起构成同时重构物体表面和内部结构信息的双模态成像系统。

    基于Transformer与部件特征融合的鸟类细粒度图像识别方法及装置

    公开(公告)号:CN114626476A

    公开(公告)日:2022-06-14

    申请号:CN202210279684.8

    申请日:2022-03-21

    Abstract: 本发明公开了一种基于Transformer和部件特征融合的鸟类细粒度图像识别方法及装置,该方法包括:步骤1,通过将预处理后的图像输入基于Transformer架构网络的特征编码器,提取出基础特征图,并将所述基础特征图输入注意力模块,生成部件注意力图;步骤2,将所述基础特征图和所述部件注意力图进行双线性注意力池化操作,获得判别性部件特征;步骤3,通过将判别性部件特征在通道维度上进行拼接,得到融合了判别性部件信息的增强特征表示;步骤4,通过将增强特征表示输入全连接层,完成类别的映射,并通过交叉熵损失和中心损失对模型参数进行优化。本发明能够实现在弱监督下对鸟类图像进行高精度识别。

Patent Agency Ranking