-
公开(公告)号:CN107945221B
公开(公告)日:2021-06-11
申请号:CN201711293626.6
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06T7/33
Abstract: 本发明公开了一种基于RGB‑D图像的三维场景特征表达与高精度匹配方法,利用透视投影模型和尺度空间理论,检测并提取RGB‑D图像的三维特征点;利用圆的旋转不变性,为每一个特征点选定以其为圆心的四个同心圆区域为此特征点所需的特征描述区域;在每个圆环区域以及最里面的中心圆区域内分别计算像素点的梯度模值和方向,建立方向直方图,其中,“圆环区域”为相邻的两同心圆之间的环形区域;利用方向直方图,建立环形描述子,对每一个特征点进行特征描述,生成特征向量,并根据特征向量间的欧式距离匹配特征点。通过采用本发明提供的方法,对RGB‑D图像进行三维特征表达与匹配,避免了主方向的分配、降低特征向量的维数,为后续特征匹配降低了计算量、节省了时间,实现特征匹配的实时性。
-
公开(公告)号:CN106875436B
公开(公告)日:2019-10-22
申请号:CN201710090688.0
申请日:2017-02-20
Applicant: 北京信息科技大学
IPC: G06T7/55
Abstract: 本发明公开了一种基于特征点密度由聚焦堆栈估计深度的方法和装置,所述方法包括:提取聚焦堆栈中每个图像的特征点,建立基于特征点密度的聚焦测度;建立引入特征点密度的加权聚焦测度的估计深度的模型:以采用SML聚焦测度为例,建立SML与特征点密度的加权线性混合聚焦测度作为深度估计的目标函数,实现对场景深度的估计和全聚焦图。本发明的方案,建立关于特征点密度的聚焦测度及建立线性加权聚焦测度,并构建基于聚焦测度的深度估计模型,获取场景的深度信息,以实现场景的全聚焦与三维重构,可为现实三维重构提供精确的深度信息并获取全聚焦图像。
-
公开(公告)号:CN106846469A
公开(公告)日:2017-06-13
申请号:CN201710091014.2
申请日:2017-02-20
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于特征点追踪由聚焦堆栈重构三维场景的方法和装置,包括:建立由三维场景生成聚焦堆栈的正演模型,给出三维场景特征点与聚焦堆栈的几何关系;提取聚焦堆栈中每个图像的特征点,追踪匹配成功的特征点的坐标,得到特征点在聚焦堆栈中的轨迹;建立由聚焦堆栈重构三维场景的反演模型:由匹配成功的特征点,建立关于特征点三维坐标的方程组,通过求解方程组得到特征点的三维坐标,重构三维场景,并实现三维几何测量。本发明的聚焦堆栈是将探测器固定,通过沿光轴移动透镜完成聚焦堆栈的采集,采用本发明的方案,能够实现相机拍摄视角下的三维重构,可以为虚拟现实和几何测量提供精确的三维结构信息。
-
公开(公告)号:CN119942449A
公开(公告)日:2025-05-06
申请号:CN202510023206.4
申请日:2025-01-07
Applicant: 北京信息科技大学
IPC: G06V20/52 , G06V10/52 , G06V10/80 , G06V10/764 , G06V10/82 , G06V10/766 , G06V10/774 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种网格划分与多尺度特征融合的密集小目标计数方法及装置,包括:步骤一,处理数据集;步骤二,根据近大远小原理,将输入图像划分为三个区域,在每一区域设置网格,按照不同大小的网格进行裁剪;步骤三,将图像切片进行特征提取,得到图像的多层次特征图;步骤四,将每一分支特征向其它分支特征维度对齐,通过动态生成特征融合权重,不同分支特征和对应的权重相乘再相加,输出低层分支融合特征、中间层分支融合特征和高层分支融合特征;步骤五,选择中间层分支融合特征和高层分支融合特征融合,输出预测点位置坐标和置信度分数,与真实点匹配,完成密集小目标计数。本发明能够提高远距离小目标的检测精度并优化计算效率。
-
公开(公告)号:CN114742847B
公开(公告)日:2025-02-14
申请号:CN202210405016.5
申请日:2022-04-18
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于空角一致性光场抠图方法及装置,其包括:步骤1,提取光场数据的中心子孔径图像并计算其视差;步骤2,计算中心子孔径图像alpha图;步骤3,通过光场alpha图传播模型,对中心子孔径图像alpha图进行传播,获取光场alpha图alphau,v(x,y)。通过采用本发明提供的方法,可以实现准确且具有一致性的光场抠图并评估其空角一致性。
-
公开(公告)号:CN118823831A
公开(公告)日:2024-10-22
申请号:CN202410923287.9
申请日:2024-07-10
Applicant: 北京信息科技大学 , 山东黄河三角洲国家级自然保护区管理委员会
IPC: G06V40/10 , G06V10/20 , G06V10/40 , G06V10/74 , G06V10/774 , G06V10/82 , G06V10/764
Abstract: 本发明公开了一种基于提示学习的鸟类细粒度识别增量学习方法和装置,包括:步骤1,搭建增量学习模型;步骤2,将预处理图像重构变为序列;步骤3,接收预处理图像,获得查询特征;步骤4,接收种级类别标签,输出对应的多粒度文本信息,转化为独热编码向量,作为文本提示向量;步骤5,构建视觉提示池,选择最终视觉提示子集;步骤6,将文本提示池和视觉提示池共同与嵌入特征拼接;步骤7,将拼接结果先后输入编码模块、分类头,输出预测分类结果,再根据预测分类结果对增量学习模型的参数进行优化,并随着增量学习模型学习不同分类任务来更新增量学习模型的参数,引导增量学习模型进行预测。本发明能够实现对鸟类图像进行高精度识别。
-
公开(公告)号:CN117171605A
公开(公告)日:2023-12-05
申请号:CN202311453699.2
申请日:2023-11-03
Applicant: 山东黄河三角洲国家级自然保护区管理委员会 , 北京信息科技大学
IPC: G06F18/23213 , G01S19/37
Abstract: 本发明公开了一种基于GPS数据的迁徙鸟类轨迹分割方法,其包括:步骤1,获取鸟类个体的GPS数据;步骤2,将GPS数据中不符合条件的数据去除,将剩下的数据按时间依正序排列,每一数据作为一个位点,获得的所有位点构成点集;步骤3,将点集进行聚类,获得多个聚类,再将聚类中的有效类划分成运动类或静止类,计算每一有效类的统计结果;步骤4,根据点集,采用停留点检测算法,获得多个类,再将该类划分成运动类或静止类,计算每一个类的统计结果;步骤5,对比步骤3和步骤4划分出的运动类和静止类的统计结果,选出最终的迁徙鸟类轨迹分割结果。本发明属于时空数据挖掘与处理技术领域,用于获得迁徙鸟类轨迹分割结果。
-
公开(公告)号:CN116977181A
公开(公告)日:2023-10-31
申请号:CN202311065494.7
申请日:2023-08-23
Applicant: 北京信息科技大学
IPC: G06T3/40
Abstract: 本发明公开了一种基于辐射场表示和神经场参数化的光场高分辨重建方法,其包括:步骤1,构建用于表示场景的双平面光场,再将双平面光场表示为辐射场;步骤2,利用多层感知器对辐射场进行神经场参数化,建立双平面光场的神经辐射场;步骤3,利用高频映射编码和体素渲染优化训练双平面光场的神经辐射场;步骤4,利用优化后的双平面光场的神经辐射场对光场数据进行高分辨重建。本发明能够实现在对具有复杂不利条件的光场场景进行角度超分辨。
-
公开(公告)号:CN116805015A
公开(公告)日:2023-09-26
申请号:CN202311075124.1
申请日:2023-08-25
IPC: G06F16/901 , G06F18/23 , G06Q10/047 , G06Q50/26
Abstract: 本发明公开了一种基于GPS跟踪数据的鸟类迁飞路线图论建模方法,其包括:步骤1,考虑鸟类的迁飞行为模式和停歇点的时空分布特征,根据GPS跟踪数据中的轨迹,构建自适应时空聚类模块,自适应时空聚类模块用于将相邻的合并状态段进行合并,并提取出合并状态段,获取候选停留点;步骤2,考虑鸟类迁飞的能量衰减系数,给出候选停留点之间的边的权重,进而建立鸟类迁飞路线的图模型#imgabs0#,V表示图模型G的节点集合,E表示连接图模型G的两个节点的边的集合。本发明用于分析、评估不同鸟类的迁飞路线。本发明属于时空数据的图形挖掘与处理技术领域。
-
公开(公告)号:CN110827338B
公开(公告)日:2022-08-16
申请号:CN201911063001.X
申请日:2019-10-31
Applicant: 山东黄河三角洲国家级自然保护区管理委员会 , 北京信息科技大学
Abstract: 本发明公开了一种分区域自适应匹配的光场数据深度重建方法,所述分区域自适应匹配的光场数据深度重建方法包括以下步骤:步骤110,定义中心视图与待匹配视图中的待匹配像素点的距离测度函数;步骤120,为不同区域的待匹配像素点选择不同的匹配窗口,其中,所述不同区域包括纹理区域、平滑区域和边缘遮挡区域;步骤130,统计匹配窗口正确匹配像素点的个数作为窗口的距离测度值,并在所述平滑区域加上平滑因子;步骤140,优化匹配视差,并计算场景深度。本发明能够在四维光场理论下实现高精度的深度重建。
-
-
-
-
-
-
-
-
-