基于萤火虫群优化PF的视觉-惯性紧耦合组合导航方法

    公开(公告)号:CN109443354A

    公开(公告)日:2019-03-08

    申请号:CN201811590654.9

    申请日:2018-12-25

    Applicant: 中北大学

    Abstract: 本发明涉及视觉-惯性紧耦合组合导航方法,具体是一种基于萤火虫群优化PF的视觉-惯性紧耦合组合导航方法。本发明改善了视觉-惯性紧耦合组合导航方法的实时性和导航精度。基于萤火虫群优化PF的视觉-惯性紧耦合组合导航方法,该方法是采用如下步骤实现的:步骤S1:在运载体上安装捷联惯导系统和双目视觉里程计;步骤S2:建立线性状态方程;建立非线性量测方程;步骤S3:利用基于萤火虫群优化的PF对视觉-惯性紧耦合组合导航系统进行非线性滤波,实现视觉-惯性紧耦合组合导航系统的数据融合;步骤S4:根据步骤S3的非线性滤波结果对捷联惯导系统的解算结果进行校正。本发明适用于视觉-惯性紧耦合组合导航。

    基于自适应高斯PF的视觉-惯性紧耦合组合导航方法

    公开(公告)号:CN109443355B

    公开(公告)日:2020-10-27

    申请号:CN201811590667.6

    申请日:2018-12-25

    Applicant: 中北大学

    Abstract: 本发明涉及视觉‑惯性紧耦合组合导航方法,具体是一种基于自适应高斯PF的视觉‑惯性紧耦合组合导航方法。本发明改善了视觉‑惯性紧耦合组合导航方法的实时性和导航精度。基于自适应高斯PF的视觉‑惯性紧耦合组合导航方法,该方法是采用如下步骤实现的:步骤S1:在运载体上安装捷联惯导系统和双目视觉里程计;步骤S2:建立线性状态方程;建立非线性量测方程;步骤S3:采用自适应高斯PF对视觉‑惯性紧耦合组合导航系统进行非线性滤波,实现视觉‑惯性紧耦合组合导航系统的数据融合;步骤S4:根据步骤S3的非线性滤波结果对捷联惯导系统的解算结果进行校正。本发明适用于视觉‑惯性紧耦合组合导航。

    基于萤火虫群优化PF的视觉-惯性紧耦合组合导航方法

    公开(公告)号:CN109443354B

    公开(公告)日:2020-08-14

    申请号:CN201811590654.9

    申请日:2018-12-25

    Applicant: 中北大学

    Abstract: 本发明涉及视觉‑惯性紧耦合组合导航方法,具体是一种基于萤火虫群优化PF的视觉‑惯性紧耦合组合导航方法。本发明改善了视觉‑惯性紧耦合组合导航方法的实时性和导航精度。基于萤火虫群优化PF的视觉‑惯性紧耦合组合导航方法,该方法是采用如下步骤实现的:步骤S1:在运载体上安装捷联惯导系统和双目视觉里程计;步骤S2:建立线性状态方程;建立非线性量测方程;步骤S3:利用基于萤火虫群优化的PF对视觉‑惯性紧耦合组合导航系统进行非线性滤波,实现视觉‑惯性紧耦合组合导航系统的数据融合;步骤S4:根据步骤S3的非线性滤波结果对捷联惯导系统的解算结果进行校正。本发明适用于视觉‑惯性紧耦合组合导航。

    基于自适应高斯PF的视觉-惯性紧耦合组合导航方法

    公开(公告)号:CN109443355A

    公开(公告)日:2019-03-08

    申请号:CN201811590667.6

    申请日:2018-12-25

    Applicant: 中北大学

    Abstract: 本发明涉及视觉-惯性紧耦合组合导航方法,具体是一种基于自适应高斯PF的视觉-惯性紧耦合组合导航方法。本发明改善了视觉-惯性紧耦合组合导航方法的实时性和导航精度。基于自适应高斯PF的视觉-惯性紧耦合组合导航方法,该方法是采用如下步骤实现的:步骤S1:在运载体上安装捷联惯导系统和双目视觉里程计;步骤S2:建立线性状态方程;建立非线性量测方程;步骤S3:采用自适应高斯PF对视觉-惯性紧耦合组合导航系统进行非线性滤波,实现视觉-惯性紧耦合组合导航系统的数据融合;步骤S4:根据步骤S3的非线性滤波结果对捷联惯导系统的解算结果进行校正。本发明适用于视觉-惯性紧耦合组合导航。

    基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法

    公开(公告)号:CN109443353B

    公开(公告)日:2020-11-06

    申请号:CN201811589653.2

    申请日:2018-12-25

    Applicant: 中北大学

    Abstract: 本发明涉及视觉‑惯性紧耦合组合导航方法,具体是一种基于模糊自适应ICKF的视觉‑惯性紧耦合组合导航方法。本发明改善了视觉‑惯性紧耦合组合导航方法的实时性和导航精度。基于模糊自适应ICKF的视觉‑惯性紧耦合组合导航方法,该方法是采用如下步骤实现的:步骤S1:在运载体上安装捷联惯导系统和双目视觉里程计;步骤S2:建立线性状态方程;建立非线性量测方程;步骤S3:采用线性KF算法进行时间更新;步骤S4:判断双目视觉里程计采集到的每帧图像是否为关键帧;步骤S5:根据量测更新结果对捷联惯导系统的解算结果进行校正。本发明适用于视觉‑惯性紧耦合组合导航。

    基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法

    公开(公告)号:CN109443353A

    公开(公告)日:2019-03-08

    申请号:CN201811589653.2

    申请日:2018-12-25

    Applicant: 中北大学

    Abstract: 本发明涉及视觉-惯性紧耦合组合导航方法,具体是一种基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法。本发明改善了视觉-惯性紧耦合组合导航方法的实时性和导航精度。基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法,该方法是采用如下步骤实现的:步骤S1:在运载体上安装捷联惯导系统和双目视觉里程计;步骤S2:建立线性状态方程;建立非线性量测方程;步骤S3:采用线性KF算法进行时间更新;步骤S4:判断双目视觉里程计采集到的每帧图像是否为关键帧;步骤S5:根据量测更新结果对捷联惯导系统的解算结果进行校正。本发明适用于视觉-惯性紧耦合组合导航。

Patent Agency Ranking