-
公开(公告)号:CN111880569A
公开(公告)日:2020-11-03
申请号:CN202010772538.X
申请日:2020-08-04
Applicant: 北京航空航天大学
IPC: G05D1/10
Abstract: 本发明提供一种指引校验无人机进近着陆的地面站显示系统及方法,包括飞行校验系统、地面站计算机系统、显示仪表三者单向通信。飞行校验系统提供航向、航向偏离、下滑偏离,DME距离、航向偏离、下滑偏离的校验数据和理想航向线、理想下滑线和无人机精确定位坐标、跑道入口的地理位置坐标,设定的偏离阈值,地面站计算机系统完成对应数据处理工作,最后实现ILS罗盘航向、航向偏离、下滑偏离显示、DME距离显示和DGPS距离显示、告警指示功能、偏离理想航向线、理想下滑线位置分布及偏离角度显示。本发明的显示系统和方法是基于无人机飞行校验特性专门设计的。通过为无人机驾驶员提供直观的进近着陆指引,保证满足飞行校验路径要求。
-
公开(公告)号:CN111652966A
公开(公告)日:2020-09-11
申请号:CN202010393797.1
申请日:2020-05-11
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种基于无人机多视角的三维重建方法及装置,属于计算机图像处理技术领域。本发明方法包括:无人机航拍场景多视角的二维图像,输入三维重建模型处理,获取相应视角下优化后的深度图,将各视角下优化的深度图融合得到场景的三维点云;三维重建模型提取图像的特征图进行单应性变换和构建代价矩阵,生成深度概率分布图,回归为初始深度图,再与参考图融合,输入深度残差学习网络,优化深度图。本发明装置包括处理器和存储器;存储器中存储实现所述三维重建方法的计算机程序;处理器执行所述计算机程序,进行场景三维重建。本发明降低了三维场景重建时的耗时以及资源占用等问题,实现了速度更快、准确率更高的三维场景重建。
-
公开(公告)号:CN111553500A
公开(公告)日:2020-08-18
申请号:CN202010393807.1
申请日:2020-05-11
Applicant: 北京航空航天大学
Abstract: 本发明提供了一种基于注意力机制全卷积网络的铁路交通接触网巡检方法,属于航空监视领域。本发明方法包括:无人机巡检铁路,拍摄视频返回地面站服务器;地面站服务器对视频进行抽帧和预处理,输入训练好的注意力机制全卷积神经网络,获取各帧图像中铁路接触网的像素级别的分布概率图,再利用LSD直线提取算法提取属于铁路交通接触网的直线段,将直线段连接为曲线并进行曲线拟合,进行安全隐患检测和报警。本发明解决了空基平台铁路接触网巡检中存在的很难区分接触网的问题,降低了传统巡检的运维成本,并且可及时排查接触网线路问题,提高铁路运营的安全性,对铁路的日常运营维护、安全预警有重大意义。
-
公开(公告)号:CN106951837B
公开(公告)日:2020-07-14
申请号:CN201710126355.9
申请日:2017-03-06
Applicant: 北京航空航天大学
Abstract: 本发明提供一种面向飞行校验的斑马线检测定位方法,首先对于线阵相机获取到的行扫数据以10行作为处理的基本单元,从第一个单元开始对其进行自适应阈值和形态学开闭运算得到预处理后的结果,统计相应的第一行像素值的情况,如果numZebra>nLS‑2且benchmarkL>150,那么就能确定斑马线首次在该单元中出现。然后通过利用与它相邻的3个单元构成一幅包含斑马线中心点的图像,通过之前的关键单元所确定的中心暗条纹的两个边界确定一个感兴趣区域,在该区域内通过角点检测找到相应的两个角点,通过计算这两个角点的中点得到斑马线的中心点。本发明由于能够为飞机的飞行校验提供支持,因此具有广阔的应用价值和市场前景。
-
公开(公告)号:CN110827231A
公开(公告)日:2020-02-21
申请号:CN201910884111.6
申请日:2019-09-19
Applicant: 北京航空航天大学
Abstract: 本发明公开一种显著性驱动下的主动学习多源图像融合方法,属于数字图像处理技术领域。实施过程包括:1)对多源图像进行显著性检测,再将显著性区域与各个源图像的相对梯度图加权,获取各源的特征图,进行特征图各个位置上的大小比较,获取各个源图像的显著点选取区域;2)将各个区域按照空间分布分块,再在每个源的各个分区域按照特征图这个位置值的大小进行取点,创建带有标签的八维特征向量;3)将得到的特征向量进行SVM分类器训练,按照策略迭代训练分类器,直到训练样本数量达到稳定。对得到的概率图进行平滑处理,再进行加权融合,得到最后的融合图像。本发明通过主动学习分类器迭代训练,能解决超过两幅源图像的融合问题,可用于目标探测等领域。
-
公开(公告)号:CN107679537B
公开(公告)日:2019-11-19
申请号:CN201710322683.6
申请日:2017-05-09
Applicant: 北京航空航天大学
Abstract: 本发明提供了一种基于轮廓点ORB特征匹配的无纹理空间目标姿态估计算法,属于数字图像处理技术领域。本发明在三维模型先验的基础上,充分利用投影图像轮廓中所包含的数据信息,利用ORB特征匹配和颜色索引建立从输入图像到目标三维模型的2D‑3D特征对应关系,并利用匹配误差构造置信概率矩阵,提出加权的正交投影算法解算无纹理空间目标的六自由度姿态参数。ORB特征提高了轮廓点匹配的准确性并且在初始姿态相对真实姿态有较大偏移的情况下仍具有一定的鲁棒性;本发明充分发掘建立2D‑3D对应关系子问题与解算姿态参数子问题之间的联系,利用匹配误差构造置信概率矩阵作为解算姿态参数的先验信息,避免了使用RANSAC算法剔除误匹配点,提高算法的计算效率和精度。
-
公开(公告)号:CN106096622B
公开(公告)日:2019-11-08
申请号:CN201610265798.1
申请日:2016-04-26
Applicant: 北京航空航天大学
IPC: G06K9/62
Abstract: 针对高光谱遥感图像分类标注问题,本发明公开了一种半监督的高光谱遥感图像分类标注方法,该方法包括:通过人工样本采集获得少量已标注训练样本(含类别标注真值)、大量未标注训练样本和测试样本;通过直推式支持向量机构造条件随机场的关联势函数;通过改进的Potts模型构造条件随机场的交互势函数;通过遗传算法对条件随机场模型进行训练;通过训练得到的条件随机场模型对测试样本进行推断,获得其分类标注结果。本发明所得到的高光谱遥感图像分类标注结果相比于单独使用条件随机场算法或直推式支持向量机的分类标注结果,去掉了大量的孤立噪声点,具有较好的区域连续性且精度较高。
-
公开(公告)号:CN110147733A
公开(公告)日:2019-08-20
申请号:CN201910306469.0
申请日:2019-04-16
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种跨域的大范围场景生成方法,属于图像生成技术领域;首先,设定目标场景中各背景的对应分布情况以及各前景目标的语义特征;根据背景各自的比例,随机生成背景分割图,再将每一个前景目标根据语义特征依次加入背景分割图中;然后,将分割图像与预先设定好的某特征向量进行融合;对特征融合后的图像,利用神经网络的多卷积层进行编码,提取高级特征,得到高级语义特征图,并利用残差网络进一步融合;最后,对融合的残差结果,使用上采样结构进行解码;最终输出彩色场景生成结果。本发明对于数据不足、样本难以获取的大范围视角任务提供了数据生成的方法,并且省去了手动给出分割标注图的过程,效果良好、实用性更强。
-
公开(公告)号:CN109949229A
公开(公告)日:2019-06-28
申请号:CN201910155600.8
申请日:2019-03-01
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种多平台多视角下的目标协同检测方法,属于航空监视技术领域。所述方法包括:通过搭载有高清摄像装置的无人机集群获取多视角下的待检测目标物体的原始图像;对无人机集群拍摄到的多视角下的原始图像进行预处理,得到新的训练集;对新的训练集进行特征检测,得到待检测目标物体种类的结果向量;计算两两结果向量的余弦相似度,并根据得到的余弦相似度和设定阈值,对判定为同一目标物体的结果向量进行匹配;根据平均概率模型对匹配上的目标进行检测结果修订。本发明综合了多视角下对待测目标物体的检测结果,可以有效避免误检与漏检;将各平台的检测结果进行匹配,可以实现多平台的信息统一,避免通信结果的不一致。
-
公开(公告)号:CN109948524A
公开(公告)日:2019-06-28
申请号:CN201910203911.7
申请日:2019-03-18
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种基于空基监视的交通车辆密度估计方法,属于航空监视领域。首先使用单通道卷积神经网络对归一化处理后的待检测场景图进行多尺度特征提取,得到对应的三种具有不同尺度信息的特征图后,分别缩放到相同的尺寸,通过1×1卷积融合其特征维信息。然后使用多尺度池化模块进行进一步的特征提取和融合,得到各图像对应的最终特征图后,使用三组相间的最邻近差值上采样搭配卷积的操作对最终特征图进行解码和复原图像分辨率。最后对每张特征图使用1×1卷积整合其特征维信息,并使用双线性插值法恢复其空间分辨率,得到最终的车辆密度估计图。本发明的网络结构简单轻便,避免了使用多分支网络造成的参数、计算量与计算时间的冗余。
-
-
-
-
-
-
-
-
-