-
公开(公告)号:CN114137562B
公开(公告)日:2024-04-12
申请号:CN202111445276.7
申请日:2021-11-30
申请人: 合肥工业大学智能制造技术研究院 , 合肥工业大学
IPC分类号: G01S17/66
摘要: 本发明公开了一种基于改进全局最邻近的多目标跟踪方法,包括:1在车顶安装激光雷达;2将激光雷达采集到的点云信息处理输出为检测框,将采集的第i帧数据结合第i帧最优估计输入到算法中;3通过设置关联门限获取多目标的关联代价矩阵并计算关联代价,得到第i帧的最优估计和观测之间准确的关联对;4将得到的关联对之间进行加权融合后的结果作为EKF滤波器的输入得到第i+1帧的最优估计,结合第i+1帧的观测,继续迭代。本发明提供的方法能够避免多目标跟踪过程中最优估计和观测之间出现的错误关联,实现对密集多目标的准确跟踪,有助于规划、决策的精准执行。
-
公开(公告)号:CN114137562A
公开(公告)日:2022-03-04
申请号:CN202111445276.7
申请日:2021-11-30
申请人: 合肥工业大学智能制造技术研究院 , 合肥工业大学
IPC分类号: G01S17/66
摘要: 本发明公开了一种基于改进全局最邻近的多目标跟踪方法,包括:1在车顶安装激光雷达;2将激光雷达采集到的点云信息处理输出为检测框,将采集的第i帧数据结合第i帧最优估计输入到算法中;3通过设置关联门限获取多目标的关联代价矩阵并计算关联代价,得到第i帧的最优估计和观测之间准确的关联对;4将得到的关联对之间进行加权融合后的结果作为EKF滤波器的输入得到第i+1帧的最优估计,结合第i+1帧的观测,继续迭代。本发明提供的方法能够避免多目标跟踪过程中最优估计和观测之间出现的错误关联,实现对密集多目标的准确跟踪,有助于规划、决策的精准执行。
-
公开(公告)号:CN116794637A
公开(公告)日:2023-09-22
申请号:CN202310438706.5
申请日:2023-04-23
申请人: 合肥工业大学
摘要: 本发明公开了一种激光雷达、相机、IMU联合标定装置,涉及环境感知技术领域,联合标定装置包括机架、驱动机构、顶板、采集装置,及用于驱动顶板前倾及后仰运动的倾角调整机构和用于驱动采集装置水平摆动的摆角调整机构;联合标定方法引入角度测量仪测量获得的摆臂真实摆动角度,以比例积分法校正IMU的累计误差。本发明的倾角调整机构和摆角调整机构在同一驱动机构的驱动下,带动顶板和采集装置联动运动,实现采集装置前倾、后仰运动及水平摆动运动的联动,利于拍摄角度的细节化调整和连续性保证,能便捷地实现不同角度图像的大量拍摄采集,并以不同角度拍摄采集的大量图像提高计算结果的准确率,最终实现传感器联合组件的高精度标定。
-
公开(公告)号:CN115546761A
公开(公告)日:2022-12-30
申请号:CN202211248240.4
申请日:2022-10-12
申请人: 合肥工业大学
IPC分类号: G06V20/58 , G06N3/04 , G06N3/08 , G06T3/00 , G06T3/40 , G06T5/00 , G06V10/22 , G06V10/766 , G06V10/77 , G06V10/82
摘要: 本发明公开了一种基于深度学习的车位及障碍物检测方法及其应用,该方法包括:1.在车辆相应位置安装鱼眼摄像头;2.对鱼眼摄像头进行环视拼接并进行标注,制作数据集;3.搭建神经网络结构,采用共用一个主干网络,经过特征提取网络后生成两个检测头的网络结构,分别对停车位和障碍物进行不同方式的回归;4.训练神经网络,得到最优损失下的权重,进行停车位识别。本发明避免了在采用检测框回归的方式同时检测停车位与障碍物的过程中无法拟合停车位的问题,从而保证了在准确拟合停车位的同时也能对障碍物进行有效检测识别。
-
公开(公告)号:CN115032651A
公开(公告)日:2022-09-09
申请号:CN202210630026.9
申请日:2022-06-06
申请人: 合肥工业大学
IPC分类号: G01S17/931 , G01S17/86 , G01S17/66 , G01S7/48 , G06T7/80 , G06T7/11 , G06T7/246 , G06T7/277 , G06T3/40 , G06V10/762 , G06N3/04 , G06N3/08
摘要: 本发明公开了一种基于激光雷达与机器视觉融合的目标检测方法,包括:1.在车辆相应位置安置激光雷达与相机;2.对所述激光雷达采集到的点云信息进行处理输出雷达检测框;3.对所述相机采集到的图像信息进行处理输出视觉检测框;4.对所述激光雷达和相机处理后的信息进行时空同步;5.对时空同步后的信息进行数据关联,获取关联对;6.对获取的关联对进行数据融合,并对融合的目标进行跟踪,综合连续帧目标信息输出最终融合结果。本发明能避免对基于多传感器融合的目标检测过程中,数据关联与融合过程存在大量误检、漏检的问题,从而能够保证对感知环境评估的准确性,并确保规划控制的精准执行。
-
公开(公告)号:CN117207781B
公开(公告)日:2024-11-05
申请号:CN202311163415.6
申请日:2023-09-08
申请人: 合肥工业大学
IPC分类号: B60L3/12 , G06N3/0464 , G06N3/0442 , G06N3/08
摘要: 本发明公开了一种基于历史实时能耗的燃料电池汽车续驶里程预测方法,通过对燃料电池汽车进行标准化测试获得历史数据,采集开放道路数据构建速度历程曲线;对历史数据进行处理获得模型输入数据,将模型输入数据导入原始CNN‑LSTM能耗模型进行训练,获得优化CNN‑LSTM能耗模型;对速度历程曲线片段划分,获得速度历程片段,通过积分获得对应片段里程,将速度历程片段输入优化CNN‑LSTM能耗模型中获得当前片段能耗;根据对应片段里程、当前片段能耗计算剩余能量和历史单位能耗行驶里程;对历史单位能耗行驶里程采用历史实时策略获得优化单位能耗行驶里程,剩余能量和优化单位能耗行驶里程相乘获得续驶里程预测值,实现燃料电池汽车续驶里程预测。
-
公开(公告)号:CN117207781A
公开(公告)日:2023-12-12
申请号:CN202311163415.6
申请日:2023-09-08
申请人: 合肥工业大学
IPC分类号: B60L3/12 , G06N3/0464 , G06N3/0442 , G06N3/08
摘要: 本发明公开了一种基于历史实时能耗的燃料电池汽车续驶里程预测方法,通过对燃料电池汽车进行标准化测试获得历史数据,采集开放道路数据构建速度历程曲线;对历史数据进行处理获得模型输入数据,将模型输入数据导入原始CNN‑LSTM能耗模型进行训练,获得优化CNN‑LSTM能耗模型;对速度历程曲线片段划分,获得速度历程片段,通过积分获得对应片段里程,将速度历程片段输入优化CNN‑LSTM能耗模型中获得当前片段能耗;根据对应片段里程、当前片段能耗计算剩余能量和历史单位能耗行驶里程;对历史单位能耗行驶里程采用历史实时策略获得优化单位能耗行驶里程,剩余能量和优化单位能耗行驶里程相乘获得续驶里程预测值,实现燃料电池汽车续驶里程预测。
-
公开(公告)号:CN116310684A
公开(公告)日:2023-06-23
申请号:CN202310263222.1
申请日:2023-03-17
申请人: 合肥工业大学
IPC分类号: G06V10/80 , G06V10/82 , G06V20/64 , G06V10/764 , G06V10/766 , G06N3/045 , G06N3/048
摘要: 本发明公开了一种基于Transformer的多模态特征融合的三维目标检测方法,包括:1.使用激光雷达采集点云数据并对点云数据进行采样,同时使用摄像头采集图像数据2.将激光雷达与摄像头采集到的数据输入基于Transformer的多模态特征融合RPN网络,提取区域建议框3.将区域建议框信息输入精细化网络,得到最终预测框。本发明能避免对基于多模态特征融合的目标检测过程中,误检、漏检的问题,从而能够保证对感知环境评估的准确性。
-
公开(公告)号:CN115032651B
公开(公告)日:2024-04-09
申请号:CN202210630026.9
申请日:2022-06-06
申请人: 合肥工业大学
IPC分类号: G01S17/931 , G01S17/86 , G01S17/66 , G01S7/48 , G06T7/80 , G06T7/11 , G06T7/246 , G06T7/277 , G06T3/4007 , G06V10/762 , G06N3/0464 , G06N3/08
摘要: 本发明公开了一种基于激光雷达与机器视觉融合的目标检测方法,包括:1.在车辆相应位置安置激光雷达与相机;2.对所述激光雷达采集到的点云信息进行处理输出雷达检测框;3.对所述相机采集到的图像信息进行处理输出视觉检测框;4.对所述激光雷达和相机处理后的信息进行时空同步;5.对时空同步后的信息进行数据关联,获取关联对;6.对获取的关联对进行数据融合,并对融合的目标进行跟踪,综合连续帧目标信息输出最终融合结果。本发明能避免对基于多传感器融合的目标检测过程中,数据关联与融合过程存在大量误检、漏检的问题,从而能够保证对感知环境评估的准确性,并确保规划控制的精准执行。
-
公开(公告)号:CN115713656A
公开(公告)日:2023-02-24
申请号:CN202211459301.1
申请日:2022-11-17
申请人: 合肥工业大学
IPC分类号: G06V10/764 , G06V10/82 , G06N3/084 , G06V10/774 , G06V10/25 , G06N3/0464
摘要: 本发明公开了一种基于Transformer的多传感器融合目标检测方法,包括首先获取摄像头、激光雷达、毫米波雷达三传感器的原始数据,将获得的数据作为三种不同的模态输入到基于Transformer的多传感器融合网络中,其次用激光雷达源模态的特征反复强化摄像头目标模态,输出潜在适应后的新模态,然后再利用毫米波雷达源模态的特征反复强化所述的新模态特征,输出最终的融合结果,得到补充修正后的道路目标检测框。本发明能够避免车辆在行驶过程中,由于单一传感器的错检或者误检所带来的危害,从而保证为决策规划部分提供更为准确、丰富的道路目标信息。
-
-
-
-
-
-
-
-
-