基于R-FCN框架多候选关联的在线多目标跟踪方法

    公开(公告)号:CN109919974B

    公开(公告)日:2023-07-14

    申请号:CN201910129845.3

    申请日:2019-02-21

    Abstract: 本发明公开了一种基于R‑FCN框架多候选关联的在线多目标跟踪方法,本方法首先对于每帧中目标建立候选选择模型,筛选出没有冗余的最佳候选框;其次,融合目标外观信息、目标尺度信息和目标运动信息等多种特征信息作为数据关联的匹配代价;通过匈牙利算法并利用计算的匹配代价对相邻帧中轨迹和目标候选框进行数据关联,并完成对跟踪轨迹的更新;最后利用RANSAC算法确定的直线方程对存在的跟踪轨迹进行优化得到目标最终的跟踪轨迹。本方法克服了检测器检测结果的可靠性问题,减少了目标漏检和检测漂移对跟踪轨迹的影响,对复杂跟踪场景具有较好的鲁棒性。

    改进YOLOv3的极小遥感图像目标检测方法、装置及存储介质

    公开(公告)号:CN111462050B

    公开(公告)日:2022-10-11

    申请号:CN202010172524.4

    申请日:2020-03-12

    Abstract: 本发明涉及目标检测技术领域,具体涉及一种改进YOLOv3的极小遥感图像目标检测方法、装置及存储介质,本发明提出了在FPN模块上添加额外的自底向上、横向连接的路径改善低分辨率特征的性能,构造自顶向下和自底向上的特征金字塔网络,融合双向结合的金字塔特征层,并应用于遥感图像的目标检测,采用1×1的卷积减少网络模型的维度,提高网络的检测速度。最后在VEDAI和NWPU VHR遥感车辆数据集上和最先进的YOLOv3网络做了定量和定性对比分析。结果表明,改进后的网络检测性能比原网络有了明显提高,网络的检测速度几乎没有改变,解决了现阶段极小遥感图像目标检测率低、虚警率高、检测速度慢的问题。

    改进YOLOv3的极小遥感图像目标检测方法、装置及存储介质

    公开(公告)号:CN111462050A

    公开(公告)日:2020-07-28

    申请号:CN202010172524.4

    申请日:2020-03-12

    Abstract: 本发明涉及目标检测技术领域,具体涉及一种改进YOLOv3的极小遥感图像目标检测方法、装置及存储介质,本发明提出了在FPN模块上添加额外的自底向上、横向连接的路径改善低分辨率特征的性能,构造自顶向下和自底向上的特征金字塔网络,融合双向结合的金字塔特征层,并应用于遥感图像的目标检测,采用1×1的卷积减少网络模型的维度,提高网络的检测速度。最后在VEDAI和NWPU VHR遥感车辆数据集上和最先进的YOLOv3网络做了定量和定性对比分析。结果表明,改进后的网络检测性能比原网络有了明显提高,网络的检测速度几乎没有改变,解决了现阶段极小遥感图像目标检测率低、虚警率高、检测速度慢的问题。

    移动机器人室内定位系统及其计算方法

    公开(公告)号:CN106352869B

    公开(公告)日:2019-07-19

    申请号:CN201610662910.5

    申请日:2016-08-12

    Abstract: 本发明是基于超宽带(UWB)技术,并且融合了电机编码器的信息设计出的提高了定位精度的室内移动机器人定位系统,实现了室内移动机器人的精准定位。本发明提供的定位计算方法,是用于室内移动机器人的定位计算方法,包括:一、确定坐标原点,开启基站和室内移动机器人,以开启时室内移动机器人所测得的位姿2为初始位姿;二、通过电机编码器得到t时刻的移动机器人的即时位姿1;三、标签接收基站发射的高频电磁脉冲,通过计算方法确定出移动机器人自身的位置;四、用电子罗盘所测得的航向角扩维步骤三得到的移动机器人位置,得到t时刻的即时位姿2;以及五、用计算法融合即时位姿1和即时位姿2,得到t的位姿估计,保存并回到步骤二的五个步骤。

    移动机器人室内定位系统及其计算方法

    公开(公告)号:CN106352869A

    公开(公告)日:2017-01-25

    申请号:CN201610662910.5

    申请日:2016-08-12

    CPC classification number: G01C21/00 G01C21/206

    Abstract: 本发明是基于超宽带(UWB)技术,并且融合了电机编码器的信息设计出的提高了定位精度的室内移动机器人定位系统,实现了室内移动机器人的精准定位。本发明提供的定位计算方法,是用于室内移动机器人的定位计算方法,包括:一、确定坐标原点,开启基站和室内移动机器人,以开启时室内移动机器人所测得的位姿2为初始位姿;二、通过电机编码器得到t时刻的移动机器人的即时位姿1;三、标签接收基站发射的高频电磁脉冲,通过计算方法确定出移动机器人自身的位置;四、用电子罗盘所测得的航向角扩维步骤三得到的移动机器人位置,得到t时刻的即时位姿2;以及五、用计算法融合即时位姿1和即时位姿2,得到t的位姿估计,保存并回到步骤二的五个步骤。

    基于改进的ORB算法的图像匹配算法

    公开(公告)号:CN110472662A

    公开(公告)日:2019-11-19

    申请号:CN201910618024.6

    申请日:2019-07-10

    Abstract: 本发明公开了一种基于改进的ORB算法的图像匹配算法,本方法通过AGAST算法对目标图像和对比图像产生一组搜索树,执行后向归纳算法得到平面区域决策树和复杂区域决策树;通过比对决策树内像素点特征得到特征点;确定特征点主方向并使主方向旋转到0度;采用BRIEF算法对特征点构建特征向量;采用多探针局部敏感哈希算法将特征向量映射到不同的哈希桶中,并按探测序列比对不同哈希桶中的特征向量,得到初始匹配对;调用RANSAC算法函数对初始匹配对进行误匹配剔除,得到精准的图像匹配结果。本算法通过对特征点提取和匹配,得到粗略匹配集合,并剔除误匹配,保留正确匹配集合,提高图像匹配的准确率以及算法的运算速度。

    基于改进的ORB算法的图像匹配方法

    公开(公告)号:CN110472662B

    公开(公告)日:2023-12-29

    申请号:CN201910618024.6

    申请日:2019-07-10

    Abstract: 本发明公开了一种基于改进的ORB算法的图像匹配算法,本方法通过AGAST算法对目标图像和对比图像产生一组搜索树,执行后向归纳算法得到平面区域决策树和复杂区域决策树;通过比对决策树内像素点特征得到特征点;确定特征点主方向并使主方向旋转到0度;采用BRIEF算法对特征点构建特征向量;采用多探针局部敏感哈希算法将特征向量映射到不同的哈希桶中,并按探测序列比对不同哈希桶中的特征向量,得到初始匹配对;调用RANSAC算法函数对初始匹配对进行误匹配剔除,得到精准的图像匹配结果。本算法通过对特征点提取和匹配,得到粗略匹配集合,并剔除误匹配,保留正确匹配集合,提高图像匹配的准确率以及算法的运算速度。

    基于R-FCN框架多候选关联的在线多目标跟踪方法

    公开(公告)号:CN109919974A

    公开(公告)日:2019-06-21

    申请号:CN201910129845.3

    申请日:2019-02-21

    Abstract: 本发明公开了一种基于R-FCN框架多候选关联的在线多目标跟踪方法,本方法首先对于每帧中目标建立候选选择模型,筛选出没有冗余的最佳候选框;其次,融合目标外观信息、目标尺度信息和目标运动信息等多种特征信息作为数据关联的匹配代价;通过匈牙利算法并利用计算的匹配代价对相邻帧中轨迹和目标候选框进行数据关联,并完成对跟踪轨迹的更新;最后利用RANSAC算法确定的直线方程对存在的跟踪轨迹进行优化得到目标最终的跟踪轨迹。本方法克服了检测器检测结果的可靠性问题,减少了目标漏检和检测漂移对跟踪轨迹的影响,对复杂跟踪场景具有较好的鲁棒性。

Patent Agency Ranking