-
公开(公告)号:CN114137562B
公开(公告)日:2024-04-12
申请号:CN202111445276.7
申请日:2021-11-30
申请人: 合肥工业大学智能制造技术研究院 , 合肥工业大学
IPC分类号: G01S17/66
摘要: 本发明公开了一种基于改进全局最邻近的多目标跟踪方法,包括:1在车顶安装激光雷达;2将激光雷达采集到的点云信息处理输出为检测框,将采集的第i帧数据结合第i帧最优估计输入到算法中;3通过设置关联门限获取多目标的关联代价矩阵并计算关联代价,得到第i帧的最优估计和观测之间准确的关联对;4将得到的关联对之间进行加权融合后的结果作为EKF滤波器的输入得到第i+1帧的最优估计,结合第i+1帧的观测,继续迭代。本发明提供的方法能够避免多目标跟踪过程中最优估计和观测之间出现的错误关联,实现对密集多目标的准确跟踪,有助于规划、决策的精准执行。
-
公开(公告)号:CN114200442B
公开(公告)日:2024-04-05
申请号:CN202111505998.7
申请日:2021-12-10
申请人: 合肥工业大学 , 合肥工业大学智能制造技术研究院
摘要: 本发明公开了一种于毫米波雷达与视觉的道路目标检测与关联方法,包括:1在车上安装毫米波雷达与相机;2构建改进的YOLOv3网络,包括主体网络和三个特征预测层,基于DIoU构建损失函数,训练网络,从而得到训练好的视觉检测模型;3对毫米波雷达的参数进行配置,并利用配置后的毫米波雷达采集CAN信号处理,为毫米波雷达输出目标预设长宽不同的预设框,并投影回像素坐标系下;4通过基于DIoU的代价计算方法计算雷达目标预设框与视觉目标框的代价值,并通过匈牙利算法设定合理阈值优化求解,得到全局最优匹配结果。本发明能提高毫米波雷达检测目标与视觉检测目标的关联精度,从而能获取更丰富的目标信息。
-
公开(公告)号:CN114200442A
公开(公告)日:2022-03-18
申请号:CN202111505998.7
申请日:2021-12-10
申请人: 合肥工业大学 , 合肥工业大学智能制造技术研究院
摘要: 本发明公开了一种于毫米波雷达与视觉的道路目标检测与关联方法,包括:1在车上安装毫米波雷达与相机;2构建改进的YOLOv3网络,包括主体网络和三个特征预测层,基于DIoU构建损失函数,训练网络,从而得到训练好的视觉检测模型;3对毫米波雷达的参数进行配置,并利用配置后的毫米波雷达采集CAN信号处理,为毫米波雷达输出目标预设长宽不同的预设框,并投影回像素坐标系下;4通过基于DIoU的代价计算方法计算雷达目标预设框与视觉目标框的代价值,并通过匈牙利算法设定合理阈值优化求解,得到全局最优匹配结果。本发明能提高毫米波雷达检测目标与视觉检测目标的关联精度,从而能获取更丰富的目标信息。
-
公开(公告)号:CN114137562A
公开(公告)日:2022-03-04
申请号:CN202111445276.7
申请日:2021-11-30
申请人: 合肥工业大学智能制造技术研究院 , 合肥工业大学
IPC分类号: G01S17/66
摘要: 本发明公开了一种基于改进全局最邻近的多目标跟踪方法,包括:1在车顶安装激光雷达;2将激光雷达采集到的点云信息处理输出为检测框,将采集的第i帧数据结合第i帧最优估计输入到算法中;3通过设置关联门限获取多目标的关联代价矩阵并计算关联代价,得到第i帧的最优估计和观测之间准确的关联对;4将得到的关联对之间进行加权融合后的结果作为EKF滤波器的输入得到第i+1帧的最优估计,结合第i+1帧的观测,继续迭代。本发明提供的方法能够避免多目标跟踪过程中最优估计和观测之间出现的错误关联,实现对密集多目标的准确跟踪,有助于规划、决策的精准执行。
-
公开(公告)号:CN115032651B
公开(公告)日:2024-04-09
申请号:CN202210630026.9
申请日:2022-06-06
申请人: 合肥工业大学
IPC分类号: G01S17/931 , G01S17/86 , G01S17/66 , G01S7/48 , G06T7/80 , G06T7/11 , G06T7/246 , G06T7/277 , G06T3/4007 , G06V10/762 , G06N3/0464 , G06N3/08
摘要: 本发明公开了一种基于激光雷达与机器视觉融合的目标检测方法,包括:1.在车辆相应位置安置激光雷达与相机;2.对所述激光雷达采集到的点云信息进行处理输出雷达检测框;3.对所述相机采集到的图像信息进行处理输出视觉检测框;4.对所述激光雷达和相机处理后的信息进行时空同步;5.对时空同步后的信息进行数据关联,获取关联对;6.对获取的关联对进行数据融合,并对融合的目标进行跟踪,综合连续帧目标信息输出最终融合结果。本发明能避免对基于多传感器融合的目标检测过程中,数据关联与融合过程存在大量误检、漏检的问题,从而能够保证对感知环境评估的准确性,并确保规划控制的精准执行。
-
公开(公告)号:CN115032651A
公开(公告)日:2022-09-09
申请号:CN202210630026.9
申请日:2022-06-06
申请人: 合肥工业大学
IPC分类号: G01S17/931 , G01S17/86 , G01S17/66 , G01S7/48 , G06T7/80 , G06T7/11 , G06T7/246 , G06T7/277 , G06T3/40 , G06V10/762 , G06N3/04 , G06N3/08
摘要: 本发明公开了一种基于激光雷达与机器视觉融合的目标检测方法,包括:1.在车辆相应位置安置激光雷达与相机;2.对所述激光雷达采集到的点云信息进行处理输出雷达检测框;3.对所述相机采集到的图像信息进行处理输出视觉检测框;4.对所述激光雷达和相机处理后的信息进行时空同步;5.对时空同步后的信息进行数据关联,获取关联对;6.对获取的关联对进行数据融合,并对融合的目标进行跟踪,综合连续帧目标信息输出最终融合结果。本发明能避免对基于多传感器融合的目标检测过程中,数据关联与融合过程存在大量误检、漏检的问题,从而能够保证对感知环境评估的准确性,并确保规划控制的精准执行。
-
-
-
-
-