多摄像机协同的无人机检测、定位及跟踪方法

    公开(公告)号:CN104197928A

    公开(公告)日:2014-12-10

    申请号:CN201410436431.2

    申请日:2014-08-29

    CPC classification number: G01C21/20

    Abstract: 本发明涉及一种多摄像机协同的无人机检测、定位及跟踪方法,针对无人机着陆过程中,利用视觉进行无人机导航控制问题,基于多摄像机协同技术,实现了无人机着陆过程中的实时检测、定位与跟踪。首先利用全站仪进行大场景高精度的摄像机标定,然后在真实无人机着陆环境中机载合作标志灯成像特性的基础上,基于极线约束的目标检测方法进行无人机精确检测,最后基于多摄像机立体视觉实现无人机的空间定位,并利用目标运动的时空连续性进行数据关联完成无人机着陆过程的跟踪。本发明的定位精度为:距着陆点400m处,XYZ方向的定位精度分别为20m、2m和2m;200米处,定位精度分别为5m、0.5m和0.5m;最后50米的定位精度均为0.2m。该系统定位测量总延时小于25ms,包括采集、传输和处理的时间。

    基于多层次词袋聚类的快速无序图像拼接方法

    公开(公告)号:CN103679676A

    公开(公告)日:2014-03-26

    申请号:CN201310643725.8

    申请日:2013-12-02

    Abstract: 本发明公开了一种基于多层次BOW聚类的快速无序图像拼接方法,用于解决现有基于SIFT特征进行自动全景图像拼接方法耗时长的技术问题。技术方案是在进行图像特征点匹配前对图像进行分类,利用多层次BOW聚类找出每张图片的BOW特征,BOW特征相似的两张图片可认为是同一类。然后再对属于同一类的任意两张图片进行特征点匹配、外点去除以及单应变换矩阵的求解。通过在自有数据集中进行测试,本发明能够在低耗时的情况下完成大量无序图像序列的拼接。由于先使用SIFT描述子来寻找图像中的特征点,再对无序图像利用多层级BOW进行分类,因此除去了不必要的匹配过程和计算过程,减少了耗时,从而实现了对无序图像的快速拼接。

    基于多源数据融合的实时合成孔径透视成像方法

    公开(公告)号:CN103646397A

    公开(公告)日:2014-03-19

    申请号:CN201310644291.3

    申请日:2013-12-02

    Abstract: 本发明公开了一种基于多源数据融合的实时合成孔径透视成像方法,用于解决现有基于能量最小化像素标记合成孔径成像方法实时性差的技术问题。技术方案是利用多源数据,根据第一帧深度图像,获取选定目标所处深度信息,结合目标深度范围分析,标记当前图像中前景像素点和未知深度像素点。然后利用场景的标记信息和目标隶属度函数得到当前彩色图像中像素点属于目标的概率,获取当前帧下的视角姿态信息。最后根据所获取的当前帧的目标存在概率和相机姿态,获取当前帧的合成图像,同时将产生的合成结果和有用信息作为下一帧的输入信息,通过迭代的方式实时获取合成结果。经测试,本发明能够在得到更清晰的合成图像的同时达到了实时处理的处理效果。

    基于频率指导空间自适应的伪装目标检测方法

    公开(公告)号:CN118379484A

    公开(公告)日:2024-07-23

    申请号:CN202410788932.0

    申请日:2024-06-19

    Abstract: 本发明提供了一种基于频率指导空间自适应的伪装目标检测方法,通过设计适配器从频域的角度提取和增强细节信息,使模型更加准确地捕捉伪装目标的精细特征。首先是频率引导的空间注意力模块,该模块通过动态调整频率分量使注意力更多地集中于伪装目标。在第一个模块的基础上又设计得到另外两个模块,即基于频率的细微差异挖掘模块和基于频率的特征增强模块,两者共同构成适配器,负责细微特征的提取和增强。本发明结合了来自视觉基础模型的通用知识和从下游COD任务中学到的特定任务知识,通过在频域空间自适应调整频率分量,来引导预训练基础模型在空间域更多地关注到伪装目标,在四个广泛采用的COD基准数据集上实现了最先进的性能。

    基于类别自适应聚类的无监督行人重识别方法

    公开(公告)号:CN111639561A

    公开(公告)日:2020-09-08

    申请号:CN202010416728.8

    申请日:2020-05-17

    Abstract: 本发明提供了一种基于类别自适应聚类的无监督行人重识别方法。首先,为无标签数据集预分配初始化标签,利用CNN模型提取行人图像的高维特征;然后,对特征集合进行阶段性类别自适应聚类,更新图像标签并计算该阶段聚类结果的平均轮廓系数,并交替更新特征提取CNN模型和类别自适应聚类模型,直至平均轮廓系数出现拐点;最后,利用训练得到的拐点处CNN模型提取测试行人图像特征,通过计算特征距离得到无监督行人重识别结果。本发明可以解决无标记数据集行人重识别任务中个体数目无法确定的问题,能够动态地适应不同规模数据集,具有较高的算法效率和精度。

    宽基线可见光相机位姿估计方法

    公开(公告)号:CN104200086B

    公开(公告)日:2017-02-22

    申请号:CN201410421652.2

    申请日:2014-08-25

    Abstract: 本发明涉及一种宽基线可见光相机位姿估计方法,首先利用张氏标定法,通过平面标定板完成相机内参的标定;而后在着陆跑道上各相机公共视野区域选定八个基准点,利用全站仪离线精确测量基准点的世界坐标;进行标定时在基准点位置放置合作标志灯,通过检测合作标志灯精确计算各相机的位姿。该方法考虑到了无人机着陆场景中的复杂自然场景特点以及可见光相机本身的物理感光特性,设计使用强光手电作为可见光相机的合作标志灯;在着陆跑道上设置了8个基准点并利用全站仪对对基准点的空间坐标进行10-6m级的空间精度测量。标定结果精确,图像上的重投影误差达到0.5像素以下。

    多摄像机协同的无人机检测、定位及跟踪方法

    公开(公告)号:CN104197928B

    公开(公告)日:2017-01-18

    申请号:CN201410436431.2

    申请日:2014-08-29

    Abstract: 本发明涉及一种多摄像机协同的无人机检测、定位及跟踪方法,针对无人机着陆过程中,利用视觉进行无人机导航控制问题,基于多摄像机协同技术,实现了无人机着陆过程中的实时检测、定位与跟踪。首先利用全站仪进行大场景高精度的摄像机标定,然后在真实无人机着陆环境中机载合作标志灯成像特性的基础上,基于极线约束的目标检测方法进行无人机精确检测,最后基于多摄像机立体视觉实现无人机的空间定位,并利用目标运动的时空连续性进行数据关联完成无人机着陆过程的跟踪。本发明的定位精度为:距着陆点400m处,XYZ方向的定位精度分别为20m、2m和2m;200米处,定位精度分别为5m、0.5m和0.5m;最后50米的定位精度均为0.2m。该系统定位测量总延时小于25ms,包括采集、传输和处理的时间。

Patent Agency Ranking