一种基于RGB-D图像的三维场景特征表达与高精度匹配方法

    公开(公告)号:CN107945221B

    公开(公告)日:2021-06-11

    申请号:CN201711293626.6

    申请日:2017-12-08

    Abstract: 本发明公开了一种基于RGB‑D图像的三维场景特征表达与高精度匹配方法,利用透视投影模型和尺度空间理论,检测并提取RGB‑D图像的三维特征点;利用圆的旋转不变性,为每一个特征点选定以其为圆心的四个同心圆区域为此特征点所需的特征描述区域;在每个圆环区域以及最里面的中心圆区域内分别计算像素点的梯度模值和方向,建立方向直方图,其中,“圆环区域”为相邻的两同心圆之间的环形区域;利用方向直方图,建立环形描述子,对每一个特征点进行特征描述,生成特征向量,并根据特征向量间的欧式距离匹配特征点。通过采用本发明提供的方法,对RGB‑D图像进行三维特征表达与匹配,避免了主方向的分配、降低特征向量的维数,为后续特征匹配降低了计算量、节省了时间,实现特征匹配的实时性。

    一种基于特征点密度由聚焦堆栈估计深度的方法和装置

    公开(公告)号:CN106875436B

    公开(公告)日:2019-10-22

    申请号:CN201710090688.0

    申请日:2017-02-20

    Inventor: 邱钧 何建梅 刘畅

    Abstract: 本发明公开了一种基于特征点密度由聚焦堆栈估计深度的方法和装置,所述方法包括:提取聚焦堆栈中每个图像的特征点,建立基于特征点密度的聚焦测度;建立引入特征点密度的加权聚焦测度的估计深度的模型:以采用SML聚焦测度为例,建立SML与特征点密度的加权线性混合聚焦测度作为深度估计的目标函数,实现对场景深度的估计和全聚焦图。本发明的方案,建立关于特征点密度的聚焦测度及建立线性加权聚焦测度,并构建基于聚焦测度的深度估计模型,获取场景的深度信息,以实现场景的全聚焦与三维重构,可为现实三维重构提供精确的深度信息并获取全聚焦图像。

    基于特征点追踪由聚焦堆栈重构三维场景的方法和装置

    公开(公告)号:CN106846469A

    公开(公告)日:2017-06-13

    申请号:CN201710091014.2

    申请日:2017-02-20

    Inventor: 刘畅 邱钧

    Abstract: 本发明公开了一种基于特征点追踪由聚焦堆栈重构三维场景的方法和装置,包括:建立由三维场景生成聚焦堆栈的正演模型,给出三维场景特征点与聚焦堆栈的几何关系;提取聚焦堆栈中每个图像的特征点,追踪匹配成功的特征点的坐标,得到特征点在聚焦堆栈中的轨迹;建立由聚焦堆栈重构三维场景的反演模型:由匹配成功的特征点,建立关于特征点三维坐标的方程组,通过求解方程组得到特征点的三维坐标,重构三维场景,并实现三维几何测量。本发明的聚焦堆栈是将探测器固定,通过沿光轴移动透镜完成聚焦堆栈的采集,采用本发明的方案,能够实现相机拍摄视角下的三维重构,可以为虚拟现实和几何测量提供精确的三维结构信息。

    网格划分与多尺度特征融合的密集小目标计数方法及装置

    公开(公告)号:CN119942449A

    公开(公告)日:2025-05-06

    申请号:CN202510023206.4

    申请日:2025-01-07

    Abstract: 本发明公开了一种网格划分与多尺度特征融合的密集小目标计数方法及装置,包括:步骤一,处理数据集;步骤二,根据近大远小原理,将输入图像划分为三个区域,在每一区域设置网格,按照不同大小的网格进行裁剪;步骤三,将图像切片进行特征提取,得到图像的多层次特征图;步骤四,将每一分支特征向其它分支特征维度对齐,通过动态生成特征融合权重,不同分支特征和对应的权重相乘再相加,输出低层分支融合特征、中间层分支融合特征和高层分支融合特征;步骤五,选择中间层分支融合特征和高层分支融合特征融合,输出预测点位置坐标和置信度分数,与真实点匹配,完成密集小目标计数。本发明能够提高远距离小目标的检测精度并优化计算效率。

    一种基于空角一致性光场抠图方法及装置

    公开(公告)号:CN114742847B

    公开(公告)日:2025-02-14

    申请号:CN202210405016.5

    申请日:2022-04-18

    Abstract: 本发明公开了一种基于空角一致性光场抠图方法及装置,其包括:步骤1,提取光场数据的中心子孔径图像并计算其视差;步骤2,计算中心子孔径图像alpha图;步骤3,通过光场alpha图传播模型,对中心子孔径图像alpha图进行传播,获取光场alpha图alphau,v(x,y)。通过采用本发明提供的方法,可以实现准确且具有一致性的光场抠图并评估其空角一致性。

    一种基于GPS数据的迁徙鸟类轨迹分割方法

    公开(公告)号:CN117171605A

    公开(公告)日:2023-12-05

    申请号:CN202311453699.2

    申请日:2023-11-03

    Abstract: 本发明公开了一种基于GPS数据的迁徙鸟类轨迹分割方法,其包括:步骤1,获取鸟类个体的GPS数据;步骤2,将GPS数据中不符合条件的数据去除,将剩下的数据按时间依正序排列,每一数据作为一个位点,获得的所有位点构成点集;步骤3,将点集进行聚类,获得多个聚类,再将聚类中的有效类划分成运动类或静止类,计算每一有效类的统计结果;步骤4,根据点集,采用停留点检测算法,获得多个类,再将该类划分成运动类或静止类,计算每一个类的统计结果;步骤5,对比步骤3和步骤4划分出的运动类和静止类的统计结果,选出最终的迁徙鸟类轨迹分割结果。本发明属于时空数据挖掘与处理技术领域,用于获得迁徙鸟类轨迹分割结果。

    基于辐射场表示和神经场参数化的光场高分辨重建方法

    公开(公告)号:CN116977181A

    公开(公告)日:2023-10-31

    申请号:CN202311065494.7

    申请日:2023-08-23

    Abstract: 本发明公开了一种基于辐射场表示和神经场参数化的光场高分辨重建方法,其包括:步骤1,构建用于表示场景的双平面光场,再将双平面光场表示为辐射场;步骤2,利用多层感知器对辐射场进行神经场参数化,建立双平面光场的神经辐射场;步骤3,利用高频映射编码和体素渲染优化训练双平面光场的神经辐射场;步骤4,利用优化后的双平面光场的神经辐射场对光场数据进行高分辨重建。本发明能够实现在对具有复杂不利条件的光场场景进行角度超分辨。

    一种分区域自适应匹配的光场数据深度重建方法

    公开(公告)号:CN110827338B

    公开(公告)日:2022-08-16

    申请号:CN201911063001.X

    申请日:2019-10-31

    Abstract: 本发明公开了一种分区域自适应匹配的光场数据深度重建方法,所述分区域自适应匹配的光场数据深度重建方法包括以下步骤:步骤110,定义中心视图与待匹配视图中的待匹配像素点的距离测度函数;步骤120,为不同区域的待匹配像素点选择不同的匹配窗口,其中,所述不同区域包括纹理区域、平滑区域和边缘遮挡区域;步骤130,统计匹配窗口正确匹配像素点的个数作为窗口的距离测度值,并在所述平滑区域加上平滑因子;步骤140,优化匹配视差,并计算场景深度。本发明能够在四维光场理论下实现高精度的深度重建。

Patent Agency Ranking