-
公开(公告)号:CN114663509A
公开(公告)日:2022-06-24
申请号:CN202210290488.0
申请日:2022-03-23
Applicant: 北京科技大学 , 北京科技大学顺德研究生院
Abstract: 本发明提供一种关键点热力图引导的自监督单目视觉里程计方法,属于计算机视觉领域。所述方法包括:构建位姿估计网络与深度估计网络;将视频图像序列输入位姿估计网络与深度估计网络;提取视频图像序列中每帧图像的关键点并生成关键点热力图;将位姿估计网络输出的每对相邻帧图像之间的位姿相乘得到较长时段的位姿,并基于深度估计网络输出的深度图像以及生成的关键点热力图,计算视频图像序列位姿一致性约束的光度误差损失函数;基于得到的光度误差损失函数,训练所述位姿估计网络与深度估计网络;利用训练好的位姿估计网络估计待估计位姿的视频图像序列中每帧图像对应的相机位姿。采用本发明,能够提高相机位姿估计的精度。
-
公开(公告)号:CN114663509B
公开(公告)日:2022-09-27
申请号:CN202210290488.0
申请日:2022-03-23
Applicant: 北京科技大学 , 北京科技大学顺德研究生院
Abstract: 本发明提供一种关键点热力图引导的自监督单目视觉里程计方法,属于计算机视觉领域。所述方法包括:构建位姿估计网络与深度估计网络;将视频图像序列输入位姿估计网络与深度估计网络;提取视频图像序列中每帧图像的关键点并生成关键点热力图;将位姿估计网络输出的每对相邻帧图像之间的位姿相乘得到较长时段的位姿,并基于深度估计网络输出的深度图像以及生成的关键点热力图,计算视频图像序列位姿一致性约束的光度误差损失函数;基于得到的光度误差损失函数,训练所述位姿估计网络与深度估计网络;利用训练好的位姿估计网络估计待估计位姿的视频图像序列中每帧图像对应的相机位姿。采用本发明,能够提高相机位姿估计的精度。
-
公开(公告)号:CN114663496B
公开(公告)日:2022-10-18
申请号:CN202210290482.3
申请日:2022-03-23
Applicant: 北京科技大学 , 北京科技大学顺德研究生院
Abstract: 本发明提供一种基于卡尔曼位姿估计网络的单目视觉里程计方法,属于计算机视觉技术领域。所述方法包括:构建深度估计网络和基于卡尔曼滤波的位姿估计网络;根据位姿估计网络输出的每对相邻帧图像之间的位姿变换以及深度估计网络输出的输入帧的深度图像,计算视频图像序列基于运动加权的光度误差损失函数;在构建的位姿估计网络与深度估计网络中,引入变分自动编码器结构,计算变分自动编码器损失函数;基于得到的光度误差损失函数和变分自动编码器损失函数,采取针对帧缺失情况的训练策略训练位姿估计网络与深度估计网络;利用训练好的位姿估计网络估计每帧图像对应的相机位姿。采用本发明,能够提高相机位姿估计的精度并适应帧缺失的情况。
-
公开(公告)号:CN115631319B
公开(公告)日:2023-06-23
申请号:CN202211361582.7
申请日:2022-11-02
Applicant: 北京科技大学 , 北京科技大学顺德创新学院
Abstract: 本发明提供一种基于交叉注意力网络的回环检测方法,属于计算机视觉技术领域。所述方法包括:对激光雷达原始三维点云数据进行预处理,获得对应的球面投影图,即训练帧;构建基于自注意力机制和交叉注意力机制的重叠度估计网络;利用得到的训练帧,训练所述重叠度估计网络;利用训练好的重叠度估计网络估计每对扫描对之间的重叠度,扫描对为两帧激光雷达的球面投影图,选取重叠度估计值高于阈值的扫描对作为回环检测候选对象,对于当前帧,选择重叠度估计值最大的候选者作为回环匹配帧,且判定该回环匹配帧位置为回环检测结果。采用本发明,能够提高回环检测或地点识别中的准确率和召回率。
-
公开(公告)号:CN115631319A
公开(公告)日:2023-01-20
申请号:CN202211361582.7
申请日:2022-11-02
Applicant: 北京科技大学 , 北京科技大学顺德创新学院
Abstract: 本发明提供一种基于交叉注意力网络的回环检测方法,属于计算机视觉技术领域。所述方法包括:对激光雷达原始三维点云数据进行预处理,获得对应的球面投影图,即训练帧;构建基于自注意力机制和交叉注意力机制的重叠度估计网络;利用得到的训练帧,训练所述重叠度估计网络;利用训练好的重叠度估计网络估计每对扫描对之间的重叠度,扫描对为两帧激光雷达的球面投影图,选取重叠度估计值高于阈值的扫描对作为回环检测候选对象,对于当前帧,选择重叠度估计值最大的候选者作为回环匹配帧,且判定该回环匹配帧位置为回环检测结果。采用本发明,能够提高回环检测或地点识别中的准确率和召回率。
-
公开(公告)号:CN114663496A
公开(公告)日:2022-06-24
申请号:CN202210290482.3
申请日:2022-03-23
Applicant: 北京科技大学 , 北京科技大学顺德研究生院
Abstract: 本发明提供一种基于卡尔曼位姿估计网络的单目视觉里程计方法,属于计算机视觉技术领域。所述方法包括:构建深度估计网络和基于卡尔曼滤波的位姿估计网络;根据位姿估计网络输出的每对相邻帧图像之间的位姿变换以及深度估计网络输出的输入帧的深度图像,计算视频图像序列基于运动加权的光度误差损失函数;在构建的位姿估计网络与深度估计网络中,引入变分自动编码器结构,计算变分自动编码器损失函数;基于得到的光度误差损失函数和变分自动编码器损失函数,采取针对帧缺失情况的训练策略训练位姿估计网络与深度估计网络;利用训练好的位姿估计网络估计每帧图像对应的相机位姿。采用本发明,能够提高相机位姿估计的精度并适应帧缺失的情况。
-
公开(公告)号:CN119992129A
公开(公告)日:2025-05-13
申请号:CN202510205028.7
申请日:2025-02-24
Applicant: 北京科技大学
IPC: G06V10/72 , G06N3/0464 , G06V10/25 , G06V10/774 , G06V10/764 , G06V10/766 , G06V10/82
Abstract: 本发明提供了一种小目标检测方法和系统,属于计算机视觉领域。所述方法先获取历史图像及真实标注样本,样本类别包括极端小目标、相对小目标、普通小目标和正常尺寸目标;构建小目标检测模型;将历史图像输入卷积神经网络提取特征图;再将特征图输入改进的CRPN,基于不同的样本类别,得到候选样本,再映射在特征图上,获得感兴趣区域及特征,再基于特征得到样本的预测类别和回归位置;同时,从感兴趣区域的特征中筛选出正样本和典型负样本,基于预测类别、回归位置、正样本教师集和典型负样本教师集对小目标检测模型进行训练,最后将当前待检测的图像输入训练完成的小目标检测模型,输出检测结果。本发明提高了小目标检测的精度和准确度。
-
公开(公告)号:CN118135503B
公开(公告)日:2024-11-08
申请号:CN202410236795.X
申请日:2024-03-01
Applicant: 北京科技大学
IPC: G06V20/54 , G06V10/764 , G06V10/44 , G06V10/80 , G06V10/766 , G06V10/82 , G08G1/01 , G06N3/042 , G06N3/0464 , G06N3/0455 , G06N3/0442 , G06N3/09
Abstract: 本发明涉及自动驾驶领域,特别是指一种双向动态地图与智能体交互的轨迹预测方法及装置,包括:根据智能体轨迹、地图数据以及轨迹预测模型,得到智能体未来的轨迹预测结果,模型包括智能体、地图编码器,多个双向互动模块,智能体、地图解码器。本发明开发了一种能够动态整合地图信息和智能体行为,考虑环境动态性和智能体间复杂交互的轨迹预测方法。采用智能体与地图环境双向交互机制,结合环境变化的额外的监督信号,动态整合地图和智能体间的交互。引入辅助任务,如交通流预测、智能体路径预测和道路节点的特征重构,以指导地图特征的演化并与轨迹预测对齐。突破了传统的静态地图范式,为轨迹预测领域带来了新的视角和可能性。
-
公开(公告)号:CN117237475B
公开(公告)日:2024-11-01
申请号:CN202311024393.5
申请日:2023-08-14
Applicant: 北京科技大学
IPC: G06T11/20 , B60W60/00 , G06N3/0464 , G06N3/042 , G06N3/0475 , G06N3/0455 , G06N3/08 , G06V10/44 , G06V10/62 , G06V10/30 , G06V10/82
Abstract: 本发明公开了一种基于扩散生成模型的车辆交通轨迹生成方法及装置,涉及交通场景生成技术和自动驾驶技术领域。包括:对于待生成轨迹的任意全新无轨迹地图场景,根据地图场景所需生成的轨迹数量以及轨迹所需时间跨度得到纯噪声,将纯噪声作为初始中心位置和初始速度;将初始中心位置和初始速度输入到训练好的噪声预测网络;根据初始中心位置、初始速度以及噪声预测网络,得到预测的中心位置噪声和相对位置噪声,进而得到地图场景的车辆交通轨迹。本发明能够生成更长且完整的在不同场景接近真实分布的驾驶轨迹,丰富已有的数据集,为自动驾驶轨迹预测模型训练和大规模自动驾驶系统评估提供数据支撑,提高自动驾驶决策算法的可靠性和准确性。
-
公开(公告)号:CN116664867B
公开(公告)日:2024-10-18
申请号:CN202310582786.1
申请日:2023-05-22
Applicant: 北京科技大学
IPC: G06V10/44 , G06V10/80 , G06V10/774
Abstract: 本发明公开了一种基于多证据融合选取训练样本的特征提取方法及装置,该方法包括:在特征提取网络的训练阶段引入多种不同的图像检索算法;对特征提取网络进行训练;训练过程包括:在输入图像中确定锚点、正样本点和负样本点;分别利用每一图像检索算法计算锚点和正样本点之间的正样本相似度,以及锚点与负样本点之间的负样本相似度;基于计算出的正样本相似度和负样本相似度更新负样本点,得到更新后的负样本点;将利用多种不同的图像检索算法所得到的更新后的负样本点进行融合,计算损失函数;利用训练好的特征提取网络对待处理图像进行特征提取,得到提取结果。本发明可提高描述子可靠性,进而提高匹配准确率和数量,有利于视觉定位等下游任务。
-
-
-
-
-
-
-
-
-