-
公开(公告)号:CN118548891A
公开(公告)日:2024-08-27
申请号:CN202410595602.X
申请日:2024-05-14
Applicant: 南昌大学
Abstract: 本发明公开了一种自适应鲁棒卡尔曼滤波的组合导航数据融合方法,包括:1)惯性设备IMU和卫星设备GNSS分别按照一定的频率采集原始数据;2)对采集的IMU及GNSS数据进行误差建模,确定组合系统状态量,得到系统状态量以及噪声模型;3)对建立的系统状态量以及噪声模型进行组合,搭建组合系统状态方程和量测方程;4)根据搭建的组合系统状态方程和量测方程,将二者汇入标准Kalman滤波框架中进行滤波更新。本发明相较传统算法既限制了系统建模误差对组合过程的影响,又能够削弱量测信息异常对滤波更新过程的干扰,显著提高了组合导航定位精度,非常适合于城市复杂环境下的动态定位。
-
公开(公告)号:CN118447091A
公开(公告)日:2024-08-06
申请号:CN202410602589.6
申请日:2024-05-15
Applicant: 南昌大学
Abstract: 本发明公开了一种视觉SLAM的动态特征剔除方法,包括:1)采用配准后的热像仪和RGB相机采集热图像和RGB图像;2)将采集的三通道RGB图像与热图像进行通道叠加,得到带RGBT四通道信息的图像;3)改进传统DeepLabv3+网络模型并对其进行训练;4)将改进后的DeepLabv3+网络模型用于语义分割,得到相应的静态和动态分割掩码;5)提取图像中的特征点,结合分割掩码将特征分为静态特征与动态特征;6)剔除动态特征,保留静态特征并将其用于进行后续的位姿估计与建图。本发明方法利用改进的四通道DeepLabv3+语义分割模型获取环境中所有物体的语义先验信息,准确分割场景中静态、潜在动态以及动态特征,并剔除场景中所有的动态特征点,从而提高VSLAM系统在复杂环境中的稳定性和鲁棒性。
-
公开(公告)号:CN106683470A
公开(公告)日:2017-05-17
申请号:CN201611010283.3
申请日:2016-11-17
Applicant: 南昌大学
Abstract: 本发明公开了一种面向停车场的汽车定位方法,包括用户手持设备、分布安装在停车场的无线中继器模块以及安装在汽车内的无线终端;车主通过手持设备发出寻车指令后,多个无线中继器模块获取用户手持设备的位置信息,多个无线中继器模块寻找具有绑定关系的车内无线终端;用户手持设备的数据处理模块将从多个无线中继器模块接收到的数据进行处理,并利用趋和性对汽车定位最准确的无线中继模块发送至用户手持设备的数据在显示终端进行显示并导航。本发明提供的面向停车场的汽车定位方法,能够使车主在忘记停车位置的情况下,通过手持设备快速地对自己的车进行定位并找到它,节省车主大量的时间和精力,另一方面减少因车主精神困乏而导致的行车事故。
-
公开(公告)号:CN106530689A
公开(公告)日:2017-03-22
申请号:CN201610907713.5
申请日:2016-10-19
Applicant: 南昌大学
CPC classification number: G08G1/0129 , G06Q10/04
Abstract: 一种基于遗传算法和行驶数据的公交车到站时间实时预估方法。包括以下步骤:把待测公交线路划分为多个子路段,分别对各子路段进行分类,计算平均速度并预估到站时间;充分利用不断更新的公交车行驶数据,构建预估时间与真实时间的函数关系式,并基于此实时检测这个函数关系式的准确性,即预估时间与真实时间的误差;当准确性不高时,在闭环中引入遗传算法对函数关系式中的调节参数进行修改,最终确定到达下游站点的时间。首先,本发明能够用简单的数据得到到站时间,使得系统获得的信息量小,因系统计算而延误的时间减少;其次,把路线进行划分,可以有效的、精确的预测到站时间;最后,可以有效地减少误差,具有出现误差便及时纠正的优点。
-
公开(公告)号:CN118447090A
公开(公告)日:2024-08-06
申请号:CN202410595604.9
申请日:2024-05-14
Applicant: 南昌大学
Abstract: 本发明公开了一种动态视觉SLAM方法,包括:1)读取视频流的图像数据;2)将图像输入前端中检测ORB特征点;3)通过YOLO检测常见的动态物体并提供其最小边界框;4)利用动态ViBe检测边界框内的动态物体,保留其中的静态环境;5)结合统计出动态特征的坐标信息,将动态特征的坐标与视觉里程计中的ORB特征点进行比对;检测落在半径内的ORB特征点,并消除此半径内的ORB特征点;6)择优选取不存在动态物体的关键帧,利用这些不存在动态物体的关键帧建立时间和空间跨度的全局约束,以优化各帧的相机位姿;7)判断当前帧是否为最后一帧,否则跳转到2),是则结束。本发明相较传统MonoSLAM方法,能够消除环境动态物体对MonoSLAM系统的影响,从而提升定位精度与建图效果。
-
公开(公告)号:CN117351348A
公开(公告)日:2024-01-05
申请号:CN202311271661.3
申请日:2023-09-28
Applicant: 南昌大学
IPC: G06V20/10 , G06V10/44 , G06V10/774 , G06V10/26 , G06V10/82 , G06N3/0464 , G06N3/0455
Abstract: 本发明公开了基于Unet改进特征提取和损失函数的图像道路提取方法,通过在Unet的基础上进行改进,去除对特征图的裁剪操作,并且改进了原网络中跳层连接部分的特征提取网络,使它允许每个神经元根据输入信息的多尺度自适应地调整其感受野的大小,可以更好地捕捉复杂图像空间的多尺度特征,更充分地提取这些目标局部特征;同时改进了损失函数,替换了原Unet使用的W‑CELoss(Weighted Cross‑entropy),能有效放大道路区域的损失,让网络更能关注到道路区域的损失变化,最终提升道路提取的精准度。
-
公开(公告)号:CN119006589A
公开(公告)日:2024-11-22
申请号:CN202410922131.9
申请日:2024-07-10
Applicant: 南昌大学
Abstract: 本发明公开了一种基于动态属性认知的视觉SLAM方法,包括:1)对图像进行ORB特征点提取,得到图像的特征点;2)利用YOLO对图像进行目标识别,检测出图像中的各种目标,并将各种目标的二维位置信息输入到ORB‑SLAM2算法中;3)对判定为主动目标周围的被动目标进行隶属关系判定,得到与主动目标有关系的被动目标;4)对得到的主动目标和与主动目标具有隶属关系的被动目标区域进行动态属性判定;5)对最终判断为动态的主动目标与被动目标区域且不为静态目标区域里的特征点进行剔除,将剩余的静态特征点进行ORB‑SLAM2的后续运算。本发明方法通过将目标的动态属性和隶属关系相结合,进行动态区域和静态区域的判定,从而去除动态区域的特征点,得到更为精确的位姿估计。
-
公开(公告)号:CN106530689B
公开(公告)日:2019-01-11
申请号:CN201610907713.5
申请日:2016-10-19
Applicant: 南昌大学
Abstract: 一种基于遗传算法和行驶数据的公交车到站时间实时预估方法。包括以下步骤:把待测公交线路划分为多个子路段,分别对各子路段进行分类,计算平均速度并预估到站时间;充分利用不断更新的公交车行驶数据,构建预估时间与真实时间的函数关系式,并基于此实时检测这个函数关系式的准确性,即预估时间与真实时间的误差;当准确性不高时,在闭环中引入遗传算法对函数关系式中的调节参数进行修改,最终确定到达下游站点的时间。首先,本发明能够用简单的数据得到到站时间,使得系统获得的信息量小,因系统计算而延误的时间减少;其次,把路线进行划分,可以有效的、精确的预测到站时间;最后,可以有效地减少误差,具有出现误差便及时纠正的优点。
-
公开(公告)号:CN106405603A
公开(公告)日:2017-02-15
申请号:CN201610998060.6
申请日:2016-11-14
Applicant: 南昌大学
IPC: G01S19/47
CPC classification number: G01S19/47
Abstract: 一种便携式高效远距离准确目标定位系统及方法,由GPS定位仪、目标体相对位置测量结构以及数据处理单元组成。定位方法:引入一个已知参考点R,利用GPS确定自身位置O,通过OR和水平线夹角得到较为精确的参考角度α实,并利用光纤陀螺仪测量OR和水平线的角度α测;用本发明测量得到目标点T的测量角度β测以及原点O和T的距离L;利用精确角度α实和测量角度的差值α测消除环境等不可知因素造成的系统误差;通过误差分析得到目标点T测量角度真实值所在范围,并最终确认定位目标点T的位置。本发明利用激光望远镜可测得较为精确的距离,利用光纤陀螺仪比MEMS陀螺仪测得的航向角更精确,角度误差更小,测量精度更高;系统可单人携带,便携易操作。
-
公开(公告)号:CN119273715A
公开(公告)日:2025-01-07
申请号:CN202411285293.2
申请日:2024-09-13
Applicant: 南昌大学
Abstract: 本发明公开了一种动态情况下IMU辅助的运动目标检测方法,首先通过提取目标图像特征点进行匹配,得到特征点对;然后对IMU传感器数据进行相对坐标转换,求解对应的基础矩阵或者单应矩阵,进而获得对应的极线或映射投影特征点;之后将提取到的特征点分类为静态背景特征点与动态目标特征点两部分;并依据相邻的两帧图像的静态背景特征点对应关系和运动参数模型求解仿射变换矩阵,利用帧间差分法对两帧图像进行差分并进行二值化图像与形态学处理,获得对应的运动目标框;最后遍历运动目标框进行重合度匹配,筛选出重合率大于设定阈值的检测对象,即为当前图像内的实际运动目标。本发明方法能够有效提高动态背景下进行运动目标识别的精度与准确率。
-
-
-
-
-
-
-
-
-