-
公开(公告)号:CN117169939B
公开(公告)日:2024-02-13
申请号:CN202311453676.1
申请日:2023-11-03
Abstract: 本发明公开了一种基于GPS数据的东方白鹳巢址定位方法,其包括:步骤1,获取待定位的东方白鹳个体的GPS数据;步骤2,将GPS数据中不符合条件的数据去除,每一数据作为一个位点;步骤3,将位点进行聚类;步骤4,先从聚类中筛选出位点数量最多的若干聚类,再使用筛选出的聚类的东方白鹳信息,依次计算每一聚类的统计信息以及跟踪路线信息;步骤5,根据统计信息和跟踪路线信息,进一步筛选出最可能含巢址的聚类,该聚类的聚类中心即为巢址。本发明属于时空数据挖掘与处理技术领域,用于获取东方白鹳巢址信息。(56)对比文件江红星等.不同水位条件下鄱阳湖越冬白鹤的移动模式与栖息地利用.林业科学.2023,第59卷(第8期),全文.Liu, Chunyue et al..Habitat Changesfor Breeding Waterbirds in YanchengNational Nature Reserve, China: A RemoteSensing Study.wetlands.2010,第30卷(第5期),全文.刘学昌;吴庆明;邹红菲;李晓民.丹顶鹤(Grus japonensis)东、西种群巢址选择的分异.生态学报.2009,(08),全文.谢鹏;董树斌;朱宝光;李天芳;张余广;马一丹;李晓民.利用无线电跟踪技术对三江平原东方白鹳幼鸟离巢扩散行为初探.野生动物学报.2018,(03),全文.
-
公开(公告)号:CN116805354B
公开(公告)日:2023-12-29
申请号:CN202311063067.5
申请日:2023-08-23
Abstract: 型。本发明公开了一种基于神经辐射场的珍稀鸟类三维模型重构方法与装置,其包括:步骤1,采集珍稀鸟类目标物的离散旋转光场数据;步骤2,估计离散旋转光场数据对应的场景多视点图像对应的相机位姿;步骤3,根据步骤2获取的场景多视点图像对应的相机位姿,获得多视点图像相机位姿的转换矩阵,进而通过NDC中的齐次坐标变换和射线变换,将步骤1采集到的珍稀鸟类目标物的离散旋转光场数据,转换到NDC空间中;步骤4,利用神经辐射场,在离散旋转光场数据NDC空间下生成旋转光场新视点图像;步骤5,根(56)对比文件程龙;郭立;袁红星;陈晓琳.基于光场渲染的动态3D目标重构技术.中国科学院研究生院学报.2009,(第06期),全文.
-
公开(公告)号:CN116721142B
公开(公告)日:2023-10-20
申请号:CN202311000568.9
申请日:2023-08-10
Applicant: 山东黄河三角洲国家级自然保护区管理委员会 , 北京信息科技大学
Abstract: 本发明公开了一种基于区域匹配正则化的由光场数据估计视差的方法及应用。基于区域匹配正则化的由光场数据估计视差的方法包括:步骤1,建立用于衡量区域匹配窗口区域匹配窗口准确性和稳定性的窗口适应性度量函数;步骤2,建立场景视差估计优化模型;步骤3,利用搜索法实现区域匹配正则化,得到最优区域匹配窗口;步骤4,利用最优区域匹配窗口,求解最优视差函数。本发明用于对四维光场数据进行高精度和高鲁棒性的视差估计,以及用于场景三维重建、虚拟现实和三维显示等。本发明属于计算成像和计算机视觉技术领域。
-
公开(公告)号:CN112967242A
公开(公告)日:2021-06-15
申请号:CN202110218843.9
申请日:2021-02-26
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于视觉特征聚合的光场质量评价方法,该方法包括:步骤1,获取光场数据集;步骤2,提取每一四维光场的视觉特征,得到每个四维光场的视觉聚合特征;视觉特征为四维光场的中心子孔径图像的特征向量LFCV、宏像素图上的特征向量LFMLI、极平面图像上的灰度共生矩阵特征向量LFEPI、以及不同重聚焦面上重聚焦图的特征向量LFRI中的一种或一种以上的组合;LFCV用于描述光场在空间清晰度上质量变化情况,LFMLI用于描述光场在角度域一致性退化情况,LFEPI用于描述光场在空‑角耦合域上结构变化情况,LFRI用于描述光场在投影域上的质量变化情况;步骤3,根据所述视觉聚合特征,使用支持向量回归训练得到光场质量分数评测模型;步骤4,通过光场质量分数评测模型评价光场的质量分数。本发明计算得到的光场质量客观评价分数与主观评价分数有较高的一致性。
-
公开(公告)号:CN107886101B
公开(公告)日:2021-06-15
申请号:CN201711293628.5
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06K9/46
Abstract: 本发明公开了一种基于RGB‑D的场景三维特征点高效提取方法,其中,包括以下步骤:步骤101,利用透视投影模型,给出RGB‑D图像保三维几何结构的降维计算方法,得到场景在相机坐标系中的参数表示;步骤102,由扩散方程出发,利用有限差分与尺度空间理论,建立检测RGB‑D图像三维特征点的RGB‑D尺度空间;步骤103,在RGB‑D尺度空间上极值检测,获取特征点的位置;以及步骤104,利用子像元插值法,精确定位特征点,并筛除低对比度和边缘响应点,增强特征匹配稳定性和抗噪能力。通过采用本发明提供的方法,进行图像的三维特征提取,可以为后续图像配准、图像拼接、目标跟踪与识别等提供大量稳定的图像特征。
-
公开(公告)号:CN112669355A
公开(公告)日:2021-04-16
申请号:CN202110006480.2
申请日:2021-01-05
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于RGB‑D超像素分割的聚焦堆栈数据拼接融合方法及系统,该方法包括:步骤1,由聚焦堆栈数据计算生成全聚焦图与深度图,即准确配准的RGB‑D数据;步骤2,将低分辨率的2D大视场图像上采样至与RGB‑D数据尺度一致;步骤3,对RGB‑D数据进行超像素分割;步骤4,提取并匹配全聚焦图与大视场2D图像之间的特征点,计算同一深度层超像素的准确单应性变换矩阵;步骤5,逐深度层进行超像素变换实现全聚焦图和深度图的拼接融合;步骤6,由大视场的RGB‑D数据生成大视场的聚焦堆栈数据。本发明能够实现多组不同视角下的聚焦堆栈数据的拼接融合。
-
公开(公告)号:CN108053468B
公开(公告)日:2021-02-26
申请号:CN201711293627.0
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06T17/00 , H04N13/207 , H04N13/271 , H04N5/232
Abstract: 本发明公开了一种单目视觉聚焦堆栈采集与场景重建方法,其包括:通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;根据对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系;根据电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系;根据电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函数计算每一物点的深度,输出场景深度图和全聚焦图,以重构三维场景。本发明能够来满足对相机拍摄视场(FOV)下三维场景重构、图像深度信息和全聚焦的需求,生成深度图和全聚焦图像。
-
公开(公告)号:CN111932648A
公开(公告)日:2020-11-13
申请号:CN202010766903.6
申请日:2020-08-03
Abstract: 本发明公开了一种由螺旋采样光场数据重建三维物体的方法,其包括:步骤1,将螺旋采样光场数据表示为Ls(x,y,Φ):相机采集到的光场数据为螺旋采样光场数据,s表示螺距, 为螺旋角度,表示在第k层下的旋转角度,x、y分别为相机的探测器平面在世界坐标系中的横、纵坐标;步骤2,建立物点在螺旋采样光场下的理想轨迹方程;步骤3,进行亚光圈区域匹配,追踪匹配点在螺旋采样光场数据中的轨迹;步骤4,对轨迹进行参数拟合,得到匹配点的三维坐标,重构三维物体。本发明方法能够实现高精度的物体三维表面重构,由于与螺旋CT数据采集模式相匹配,可与螺旋CT一起构成同时重构物体表面和内部结构信息的双模态成像系统。
-
公开(公告)号:CN111932601A
公开(公告)日:2020-11-13
申请号:CN202010766902.1
申请日:2020-08-03
Abstract: 本发明公开了一种基于YCbCr颜色空间光场数据的稠密深度重建方法,该方法包括以下步骤:步骤1,获取YCbCr颜色空间光场数据;步骤2,在Y通道标记平滑区域;步骤3,在CbCr通道进行语义分割;步骤4,在Y通道进行区域匹配;步骤5,优化匹配视差,并计算场景深度。通过采用本发明提供的方法,能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN106937044B
公开(公告)日:2020-10-23
申请号:CN201710090375.5
申请日:2017-02-20
Applicant: 北京信息科技大学
IPC: H04N5/232
Abstract: 本发明公开了一种不完备数据下由聚焦堆栈重建光场的代数迭代方法和装置,所述方法包括:给出四维光场与聚焦堆栈的几何关系,建立由光场形成聚焦堆栈的投影模型,形成投影算子;以投影模型为基础,建立由聚焦堆栈重建光场的反投影模型:即建立聚焦堆栈中的光线轨迹追踪模型,形成反投影算子;建立由聚焦堆栈重建光场的反投影代数迭代重建方法:采集到的聚焦堆栈数据通常在场景的一定深度范围,对应投影的不完备数据,投影模型离散为线性方程组,建立由聚焦堆栈重建光场的代数迭代方法。本发明的聚焦堆栈是探测器和镜头相对移动采集得到的图像序列,利用投影算子和反投影算子进行代数迭代可重建出高精度的四维光场。
-
-
-
-
-
-
-
-
-