一种基于车辆非完整约束的多相机运动状态估计方法

    公开(公告)号:CN112669354A

    公开(公告)日:2021-04-16

    申请号:CN202011423525.8

    申请日:2020-12-08

    Abstract: 本发明请求保护一种基于车辆非完整约束的多相机运动状态估计方法,包括步骤:1.多相机统一坐标系,获取相机间的刚性约束;2.单目SLAM的构建;3.车辆运动模型的建立,对车辆在直线运动和转弯状态下分别进行建模,根据Ackerman转向原理可以计算出车辆和相机的旋转角θ,平移角和绝对偏移量ρ和λ的数学关系,从而为多相机系统提供运动学约束求取尺度信息。4.多相机系统和车辆的运动估计,完成初步的位姿估计及局部点云地图生成。5.相机的帧间位姿恢复和特征点匹配的重投影误差采用光束法平差进行优化,获取车辆及车载多相机系统的准确位姿估计及全局点云。本发明适用于汽车高精度定位和状态估计,具有更广的适应性、更高的准确度且较好的鲁棒性。

    一种基于车辆非完整约束的多相机运动状态估计方法

    公开(公告)号:CN112669354B

    公开(公告)日:2024-07-23

    申请号:CN202011423525.8

    申请日:2020-12-08

    Abstract: 本发明请求保护一种基于车辆非完整约束的多相机运动状态估计方法,包括步骤:1.多相机统一坐标系,获取相机间的刚性约束;2.单目SLAM的构建;3.车辆运动模型的建立,对车辆在直线运动和转弯状态下分别进行建模,根据Ackerman转向原理可以计算出车辆和相机的旋转角θ,平移角#imgabs0#和绝对偏移量ρ和λ的数学关系,从而为多相机系统提供运动学约束求取尺度信息。4.多相机系统和车辆的运动估计,完成初步的位姿估计及局部点云地图生成。5.相机的帧间位姿恢复和特征点匹配的重投影误差采用光束法平差进行优化,获取车辆及车载多相机系统的准确位姿估计及全局点云。本发明适用于汽车高精度定位和状态估计,具有更广的适应性、更高的准确度且较好的鲁棒性。

    一种基于多任务神经网络的汽车可行驶区域规划方法

    公开(公告)号:CN112418236B

    公开(公告)日:2022-10-18

    申请号:CN202011328854.4

    申请日:2020-11-24

    Abstract: 本发明请求保护一种基于多任务神经网络的汽车可行驶区域规划方法,涉及深度学习、计算机视觉、辅助驾驶、图像处理等领域。首先本发明基于硬参数共享机制构建具有语义分割与目标检测两种功能的轻量级多任务神经网络;其次根据网络输出格式,制作训练集与构建相应的损失函数数学模型;再次对网络进行训练,使用本发明提出的损失函数数学模型进行反向传播优化网络参数;最后将多任务神经网络应用于汽车可行驶区域规划中。本发明的多任务神经网络不但具有车道分割功能,还具有车辆、行人检测功能,通过单目测距可以起到汽车防碰撞预警功能,减少汽车发生碰撞的概率。

    一种基于多焦距相机与激光雷达融合的三维目标检测方法

    公开(公告)号:CN114114312A

    公开(公告)日:2022-03-01

    申请号:CN202111403257.8

    申请日:2021-11-24

    Abstract: 本发明请求保护一种基于多焦距相机与激光雷达融合的三维目标检测方法,属于自动驾驶、三维目标检测领域。包括以下步骤:1.多焦距相机由长短焦相机组成,对多焦距相机和激光雷达数据时空同步处理。2.利用分割网络分别对多焦距相机图像语义分割,利用分割结果生成视锥体,将激光雷达点云分别投影到长焦、短焦图像形成的视锥进行三维目标检测。3.利用多尺度图像金字塔实现长短焦图像特征点的精确匹配,通过特征匹配建立长短焦分割图像目标间的联系,通过这种联系对三维目标的数据关联和数据融合。本发明能应用在自动驾驶或辅助驾驶车辆上,对车辆周围进行环境感知,具有分类准确,定位精度高的特点,特别是对远距离目标检测精度有提高。

    一种基于人眼注意力的智能电子后视镜系统及实现方法

    公开(公告)号:CN113978366B

    公开(公告)日:2024-12-06

    申请号:CN202111399057.X

    申请日:2021-11-19

    Abstract: 本发明请求保护一种基于人眼注意力的智能电子后视镜系统及实现方法,涉及智能驾驶、辅助驾驶、深度学习、智能座舱技术等领域。该方法通过单目相机获取驾驶人员的脸部图像;通过人眼注意力检测网络检测人脸,得到驾驶员的头部姿态、视线方向及注意力方向;驾驶员视线向左或向右时,左边或右边电子后视镜屏幕调整画面显示,中控LCD显示屏显示左边或右边车道场景,视线回正后中控LCD保持显示;同时使用目标检测网络对车辆周围环境进行目标检测,当驾驶员进行变道、转向等操作,或周围出现危险目标靠近,左右电子后视镜屏幕显示后方区域的检测对象,中控LCD显示车辆周围的危险对象;本发明提高了驾驶的安全性。

    面向材料力学性能的智能三维位移场及应变场测量方法

    公开(公告)号:CN114396877B

    公开(公告)日:2023-09-26

    申请号:CN202111400666.2

    申请日:2021-11-19

    Abstract: 本发明请求保护一种面向材料力学性能的智能三维位移场及应变场测量方法,包括以下步骤:步骤1.在材料表面喷涂随机喷涂散斑,使用两个相机同时连续采集图像以记录材料在外力作用下发生形变的过程。步骤2.构造记录材料形变的双目图像作为数据集;步骤3.结合2D卷积、3D卷积、转置卷积、卷积LSTM和多任务神经网络,建立一个三维位移场和应变场的神经网络模型。步骤4.利用训练集数据训练三维位移场和应变场计算神经网络模型。步骤5.计算材料的三维位移场和应变场。本发明通过2D卷积来提取图像中的特征信息,利用3D卷积对特征信息进行细化和编码,最后利用卷积LSTM神经网络的时间和空间特征提取能力结合转置卷积来计算材料三维位移场和应变场。

    一种多焦距立体视觉同时定位与建图实现方法及系统

    公开(公告)号:CN114049402A

    公开(公告)日:2022-02-15

    申请号:CN202111357100.6

    申请日:2021-11-16

    Abstract: 本发明请求保护一种多焦距立体视觉同时定位与建图实现方法及系统,属于自动驾驶、汽车环境感知和智能座舱技术领域。包括以下步骤:1.安装多焦距立体相机,使用改进的多焦距相机标定方法标定多焦距立体相机的投影矩阵Pl和右相机投影矩阵Pr。2.基于图像金字塔提取图像ORB特征点,并且对短焦距相机图像中与长焦距相机图像视野相同的部分增加ORB特征点提取数量。3.利用多焦距标定参数立体校正ORB特征点,并立体匹配ORB特征点,得到ORB特征点的三维位置,最后求解出自身位姿。本发明不仅能够实现和短焦距标准立体SLAM相同的定位精度,并且实现对远距离场景建图。

    一种基于人眼注意力的智能电子后视镜系统及实现方法

    公开(公告)号:CN113978366A

    公开(公告)日:2022-01-28

    申请号:CN202111399057.X

    申请日:2021-11-19

    Abstract: 本发明请求保护一种基于人眼注意力的智能电子后视镜系统及实现方法,涉及智能驾驶、辅助驾驶、深度学习、智能座舱技术等领域。该方法通过单目相机获取驾驶人员的脸部图像;通过人眼注意力检测网络检测人脸,得到驾驶员的头部姿态、视线方向及注意力方向;驾驶员视线向左或向右时,左边或右边电子后视镜屏幕调整画面显示,中控LCD显示屏显示左边或右边车道场景,视线回正后中控LCD保持显示;同时使用目标检测网络对车辆周围环境进行目标检测,当驾驶员进行变道、转向等操作,或周围出现危险目标靠近,左右电子后视镜屏幕显示后方区域的检测对象,中控LCD显示车辆周围的危险对象;本发明提高了驾驶的安全性。

    基于长短焦多相机车辆环境下的目标检测和融合方法

    公开(公告)号:CN112364793A

    公开(公告)日:2021-02-12

    申请号:CN202011288888.5

    申请日:2020-11-17

    Abstract: 本发明请求保护一种基于长短焦多相机车辆环境下的目标检测和融合方法。该方法包括以下几个步骤:1.采用卷积神经网络对长短焦双目相机采集的图像进行目标检测,得到同一时刻下不同焦距相机所得图像中的目标框位置。2.根据相机成像原理和相机标定所得的内外参数K、R、T,可得到空间目标点P在长、短焦相机像素坐标系下的映射关系f。3.将长焦相机图像中的目标框位置,通过映射关系f,得到短焦相机图像中相应目标框的位置,再与原短焦相机图像中的目标进行融合,实现了不同距离条件下的目标检测任务。本发明克服了单一焦距相机不能适应不同距离下目标检测任务的局限,提高了车辆环境下目标检测的准确度。同时,本方法简单易用,成本低,实时性高。

Patent Agency Ranking