一种基于视觉SLAM的车辆定位方法及装置

    公开(公告)号:CN115493612B

    公开(公告)日:2024-11-26

    申请号:CN202211246923.6

    申请日:2022-10-12

    Abstract: 本申请公开了一种基于视觉SLAM的车辆定位方法及装置,涉及自动驾驶技术领域。所述基于视觉SLAM的车辆定位方法包括:获取车辆行驶过程中当前帧的图像信息以及前一帧的图像信息;根据当前帧的图像信息以及当前帧的前一帧的图像信息获取视觉里程计定位信息;对当前帧的图像信息进行处理,从而获取车道线语义定位信息;将车道线语义定位信息以及所述视觉里程计定位信息进行融合,从而获取最终定位信息。本申请利用摄像头传感器输出的原始数据和感知输出数据作为SLAM算法的输入源,分别将显著度信息以及车道线语义信息加入到SLAM框架中,增强视觉定位SLAM的视觉语义信息表示能力,弥补现有方法不足,能够更好提取图像中用于定位的信息,提升SLAM定位精度和鲁棒性。

    高精地图更新方法、装置、车辆、介质及程序

    公开(公告)号:CN118606333A

    公开(公告)日:2024-09-06

    申请号:CN202410666329.5

    申请日:2024-05-27

    Abstract: 本申请涉及高精地图更新技术领域,特别涉及一种高精地图更新方法、装置、车辆、介质及程序,其中,方法包括:获取目标区域内每个车辆的车辆数据;识别车辆数据中车辆的行驶轨迹、行驶轨迹中每条道路的道路权重和道路重叠度,根据行驶轨迹、行驶轨迹中每条道路的道路权重和道路重叠度计算每个车辆的置信度;根据每个车辆的置信度选择目标车辆的车辆数据更新目标区域的高精地图。由此,解决了相关技术中高精地图更新中车辆过多导致数据上传时的网络带宽压力、数据质量参差不齐导致的源数据可用性差、目标检测过程中识别鲁棒性低以及更新流程复杂造成的更新周期长等问题。

    单目三维目标检测模型训练方法、装置、设备及存储介质

    公开(公告)号:CN117351304A

    公开(公告)日:2024-01-05

    申请号:CN202311403311.8

    申请日:2023-10-26

    Abstract: 本发明公开了单目三维目标检测模型训练方法、装置、设备及存储介质。该方法包括:将第一图像样本和第二图像样本输入待训练模型,得到目标预测类别和目标预测三维位置信息;根据目标预测三维位置信息和相机参数得到第一图像样本和第二图像样本对应的目标预测二维位置信息;根据第一图像样本和第二图像样本对应的目标预测类别、第一图像样本和第二图像样本对应的目标预测二维位置信息、第一图像样本对应的目标预测三维位置信息、第二图像样本对应的目标预测三维位置信息以及目标参数确定目标损失函数;基于目标损失函数训练待训练模型的参数,得到目标单目三维目标检测模型,通过本发明的技术方案,能够仅需目标的二维参数实现模型参数的调优。

    阻尼器迟滞补偿方法、装置、车辆、电子设备及介质

    公开(公告)号:CN116787987A

    公开(公告)日:2023-09-22

    申请号:CN202310753225.3

    申请日:2023-06-25

    Abstract: 本发明公开了一种阻尼器迟滞补偿方法、装置、车辆、电子设备及介质。其中,方法包括:获取阻尼器模型输出的当前预测阻尼力对应的当前预测电流、磁流变阻尼器输出的当前阻尼力以及减震对象对应的期望阻尼力;根据当前阻尼力、期望阻尼力与当前预测电流确定当前控制电流;采用当前控制电流控制磁流变阻尼器,以使磁流变阻尼器更新当前阻尼力;将当前控制电流输入阻尼器模型以更新当前预测阻尼力,确定当前预测阻尼力对应的当前预测电流;返回获取减震对象对应的期望阻尼力的步骤。解决现有的阻尼器迟滞补偿方法存在精度低的问题,提高了阻尼器迟滞补偿的准确性。实现高精度阻尼力跟踪,提高控制器对阻尼器的控制效果。

    融合定位方法、装置、处理器、存储介质及电子装置

    公开(公告)号:CN116026319A

    公开(公告)日:2023-04-28

    申请号:CN202211311463.0

    申请日:2022-10-25

    Abstract: 本发明涉及车辆定位领域,公开了一种融合定位方法、装置、处理器、存储介质及电子装置,涉及车辆定位技术领域。其中,该方法包括:获取车辆的测量数据和观测数据,其中,测量数据为根据车辆的陀螺仪和轮速计测量得到的数据,观测数据为根据车辆定位系统的多种定位传感器观测得到的数据;根据测量数据确定车辆的第一信息,其中,第一信息用于更新车辆的目标信息,目标信息用于表示车辆的定位信息;根据第一信息和对应关系确定车辆的第二信息;根据融合策略融合观测数据和第二信息,得到更新信息;将第一信息与更新信息合并,得到目标信息。本发明解决了相关技术中使用单一的定位方法对车辆进行定位,导致定位精度低的技术问题。

    一种图像匹配方法、装置、存储介质及汽车

    公开(公告)号:CN110880003B

    公开(公告)日:2023-01-17

    申请号:CN201910968183.9

    申请日:2019-10-12

    Abstract: 本发明公开了一种图像匹配方法、装置、存储介质及汽车。该方法包括:获取目标图像,并将所述目标图像划分为至少两个子图像;确定各个所述子图像的特征向量和灰度平均值;基于所述特征向量和灰度平均值匹配所述目标图像与预先获取的匹配图像,根据匹配结果确定所述匹配图像中与所述目标图像匹配的匹配区域,由于特征向量的光照、平移、旋转不变性,采用特征向量结合像素灰度平均值的方式进行匹配,弥补基于单个像素点的灰度值匹配误差较大的缺点,使图像匹配结果更稳定,进而,可以使VSLAM在场景明暗差距变化较大的情景运用,并提高了VSLAM的精度。

    车窗的位置确定方法、装置和车辆

    公开(公告)号:CN114998424B

    公开(公告)日:2022-10-21

    申请号:CN202210929798.2

    申请日:2022-08-04

    Abstract: 本发明公开了一种车窗的位置确定方法、装置和车辆。其中,该方法包括:获取待检测图像,其中,待检测图像用于表征车辆的车窗;对待检测图像进行高斯映射,得到热力图;基于热力图确定待检测图像中的车窗上的目标关键点;基于目标关键点,确定车窗的位置。本发明解决了对车辆的车窗进行定位的准确性低的技术问题。

    基于多层次特征融合的快速无人车驾驶场景分割方法

    公开(公告)号:CN109784402A

    公开(公告)日:2019-05-21

    申请号:CN201910038338.9

    申请日:2019-01-15

    Abstract: 本发明公开了一种基于多层次特征融合的快速无人车驾驶场景分割方法,其先利用深度神经网络对场景图片进行编码、池化,解码得到稠化特征图,再通过多层次特征融合技术对不同特征空间的特征进行融合,得到包含更多特征图全局信息的特征融合图;softmax分类器将特征融合图中的像素点进行分类,得到基于像素点的驾驶场景分割图。这样能够保证在获取特征图全局信息的前提降低运算量,在能够满足无人驾驶的情况下大大提高场景分割速率,有利于实现快速语义分割技术,进而为无人驾驶提供技术支撑。

Patent Agency Ranking