-
公开(公告)号:CN104156972B
公开(公告)日:2017-01-25
申请号:CN201410422858.7
申请日:2014-08-25
Applicant: 西北工业大学
IPC: G06T7/00
Abstract: 本发明涉及一种基于激光扫描测距仪与多相机融合的透视成像方法,摒弃了传统方法只采用图像传感器的方式,在使用图像传感器获取图像信息的基础上引入了激光扫描测距仪获取场景的点云数据,利用点云数据获取场景的深度信息,根据深度信息进行聚焦深度的选择,减少时间复杂度。同时本发明利用场景的深度信息,可以对获得的投影点进行筛选,提高透视成像结果的清晰度。由于本发明采用全景相机获取场景的图像信息,同时获取多视角的图像,因此能够获取多视角透视成像结果。本发明在自建数据库上进行测试结果,测试结果显示本方法能够快速有效的得到更清晰的多视角透视成像结果。
-
公开(公告)号:CN103413352A
公开(公告)日:2013-11-27
申请号:CN201310323439.3
申请日:2013-07-29
Applicant: 西北工业大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于RGBD多传感器融合的场景三维重建方法,用于解决现有场景三维重建方法重建速度低的技术问题。技术方案是首先采用SURF算法代替SIFT算法进行特征匹配,其次,根据观察中心的方法改进了子地图的划分标准,使得经多层图抽象后的图像金字塔更好的反映环境的拓扑结构,更有助于提高构建大场景三维地图的速度。同时,在地图生成部分,提出了使用经典的基于空间体的多帧融合方法来减少冗余点,提高了重建速度。经测试,本发明方法的重建速度比背景技术提高了近两倍。
-
公开(公告)号:CN103413304A
公开(公告)日:2013-11-27
申请号:CN201310326453.9
申请日:2013-07-30
Applicant: 西北工业大学
IPC: G06T7/00
Abstract: 本发明公开了一种基于彩色深度融合的虚拟阵列合成孔径透视成像方法,用于解决现有利用水平视差进行相机阵列合成孔径成像的方法所成图像清晰度差的技术问题。技术方案是直接从数据源入手,预先就给出被观测目标和遮挡物的深度信息,然后根据预先获取的深度信息,给予被观测目标和遮挡物不同的深度标记,利用深度标记去除投影之后错误的投影点,减少错误投影点对目标清晰度的负面影响,从而获取更加接近现实的目标图像。
-
公开(公告)号:CN105427284A
公开(公告)日:2016-03-23
申请号:CN201510752784.8
申请日:2015-11-06
Applicant: 西北工业大学
CPC classification number: G06T2207/10016
Abstract: 本发明公开了一种基于机载Android平台的固定靶标识方法,用于解决现有固定靶标识方法靶标的检测和定位精度低的技术问题。技术方案是首先在标定好的手机摄像头的基础上进行图像采集;其次,对图像进行二值化处理,并提取轮廓,然后与模板进行匹配,并在匹配成功的图像上提取目标中心圆的颜色和坐标;然后利用手机方向传感器对虚假目标进行去除;最后,将目标图像坐标转换为经纬度,利用手机的传感器对获取的飞机飞行参数进行修正。本发明弥补了背景技术无线图传方法的不足,提高了靶标的检测和定位精度。
-
公开(公告)号:CN103679676A
公开(公告)日:2014-03-26
申请号:CN201310643725.8
申请日:2013-12-02
Applicant: 西北工业大学
Abstract: 本发明公开了一种基于多层次BOW聚类的快速无序图像拼接方法,用于解决现有基于SIFT特征进行自动全景图像拼接方法耗时长的技术问题。技术方案是在进行图像特征点匹配前对图像进行分类,利用多层次BOW聚类找出每张图片的BOW特征,BOW特征相似的两张图片可认为是同一类。然后再对属于同一类的任意两张图片进行特征点匹配、外点去除以及单应变换矩阵的求解。通过在自有数据集中进行测试,本发明能够在低耗时的情况下完成大量无序图像序列的拼接。由于先使用SIFT描述子来寻找图像中的特征点,再对无序图像利用多层级BOW进行分类,因此除去了不必要的匹配过程和计算过程,减少了耗时,从而实现了对无序图像的快速拼接。
-
公开(公告)号:CN103646397A
公开(公告)日:2014-03-19
申请号:CN201310644291.3
申请日:2013-12-02
Applicant: 西北工业大学
IPC: G06T7/00
Abstract: 本发明公开了一种基于多源数据融合的实时合成孔径透视成像方法,用于解决现有基于能量最小化像素标记合成孔径成像方法实时性差的技术问题。技术方案是利用多源数据,根据第一帧深度图像,获取选定目标所处深度信息,结合目标深度范围分析,标记当前图像中前景像素点和未知深度像素点。然后利用场景的标记信息和目标隶属度函数得到当前彩色图像中像素点属于目标的概率,获取当前帧下的视角姿态信息。最后根据所获取的当前帧的目标存在概率和相机姿态,获取当前帧的合成图像,同时将产生的合成结果和有用信息作为下一帧的输入信息,通过迭代的方式实时获取合成结果。经测试,本发明能够在得到更清晰的合成图像的同时达到了实时处理的处理效果。
-
公开(公告)号:CN105387860B
公开(公告)日:2017-12-22
申请号:CN201510943566.2
申请日:2015-12-16
Applicant: 西北工业大学
Abstract: 本发明公开了一种结合单目视觉与激光测距的无人机自主着陆导引方法,用于解决现有无人机自主着陆导引方法精度差的技术问题。技术方案是采用激光测距仪实时获取无人机距离着陆点的距离信息,利用单目视觉进行目标识别。首先通过一个三维度可独立调节的水平载台调节相机使其前后俯仰以及左右倾斜的角度至水平零度状态,然后依据目标图像确定其实际位置信息和像素坐标之间的几何转换关系,最后计算出无人机在给定坐标系下三维坐标。从而实现对无人机的自主着陆导引。本发明将激光测距仪与单目视觉相结合,故精度高、范围广而且性能稳定。经测试,无人机自主着陆导引方法的精度由背景技术的200米内5米减少到200米内0.5米。
-
公开(公告)号:CN103646397B
公开(公告)日:2016-10-19
申请号:CN201310644291.3
申请日:2013-12-02
Applicant: 西北工业大学
IPC: G06T7/00
Abstract: 本发明公开了一种基于多源数据融合的实时合成孔径透视成像方法,用于解决现有基于能量最小化像素标记合成孔径成像方法实时性差的技术问题。技术方案是利用多源数据,根据第一帧深度图像,获取选定目标所处深度信息,结合目标深度范围分析,标记当前图像中前景像素点和未知深度像素点。然后利用场景的标记信息和目标隶属度函数得到当前彩色图像中像素点属于目标的概率,获取当前帧下的视角姿态信息。最后根据所获取的当前帧的目标存在概率和相机姿态,获取当前帧的合成图像,同时将产生的合成结果和有用信息作为下一帧的输入信息,通过迭代的方式实时获取合成结果。经测试,本发明能够在得到更清晰的合成图像的同时达到了实时处理的处理效果。
-
公开(公告)号:CN104156972A
公开(公告)日:2014-11-19
申请号:CN201410422858.7
申请日:2014-08-25
Applicant: 西北工业大学
IPC: G06T7/00
Abstract: 本发明涉及一种基于激光扫描测距仪与多相机融合的透视成像方法,摒弃了传统方法只采用图像传感器的方式,在使用图像传感器获取图像信息的基础上引入了激光扫描测距仪获取场景的点云数据,利用点云数据获取场景的深度信息,根据深度信息进行聚焦深度的选择,减少时间复杂度。同时本发明利用场景的深度信息,可以对获得的投影点进行筛选,提高透视成像结果的清晰度。由于本发明采用全景相机获取场景的图像信息,同时获取多视角的图像,因此能够获取多视角透视成像结果。本发明在自建数据库上进行测试结果,测试结果显示本方法能够快速有效的得到更清晰的多视角透视成像结果。
-
公开(公告)号:CN104166225B
公开(公告)日:2016-04-13
申请号:CN201410405020.7
申请日:2014-08-18
Applicant: 西北工业大学
Abstract: 本发明涉及一种具有多成像平面的成像装置及成像方法,克服了传统照相机无法进行远距离高分辨成像的缺点,利用开普勒式望远镜原理解决了对远距离目标进行成像的问题,通过将CMOS图像传感器阵列排布到多个成像平面完成高分辨率图像采集的工作,在此基础上,利用远光透镜的特性消除了同一场景中物体处于不同深度上可能造成的成像局部清晰化的问题。
-
-
-
-
-
-
-
-
-