-
公开(公告)号:CN114200442B
公开(公告)日:2024-04-05
申请号:CN202111505998.7
申请日:2021-12-10
申请人: 合肥工业大学 , 合肥工业大学智能制造技术研究院
摘要: 本发明公开了一种于毫米波雷达与视觉的道路目标检测与关联方法,包括:1在车上安装毫米波雷达与相机;2构建改进的YOLOv3网络,包括主体网络和三个特征预测层,基于DIoU构建损失函数,训练网络,从而得到训练好的视觉检测模型;3对毫米波雷达的参数进行配置,并利用配置后的毫米波雷达采集CAN信号处理,为毫米波雷达输出目标预设长宽不同的预设框,并投影回像素坐标系下;4通过基于DIoU的代价计算方法计算雷达目标预设框与视觉目标框的代价值,并通过匈牙利算法设定合理阈值优化求解,得到全局最优匹配结果。本发明能提高毫米波雷达检测目标与视觉检测目标的关联精度,从而能获取更丰富的目标信息。
-
公开(公告)号:CN114200442A
公开(公告)日:2022-03-18
申请号:CN202111505998.7
申请日:2021-12-10
申请人: 合肥工业大学 , 合肥工业大学智能制造技术研究院
摘要: 本发明公开了一种于毫米波雷达与视觉的道路目标检测与关联方法,包括:1在车上安装毫米波雷达与相机;2构建改进的YOLOv3网络,包括主体网络和三个特征预测层,基于DIoU构建损失函数,训练网络,从而得到训练好的视觉检测模型;3对毫米波雷达的参数进行配置,并利用配置后的毫米波雷达采集CAN信号处理,为毫米波雷达输出目标预设长宽不同的预设框,并投影回像素坐标系下;4通过基于DIoU的代价计算方法计算雷达目标预设框与视觉目标框的代价值,并通过匈牙利算法设定合理阈值优化求解,得到全局最优匹配结果。本发明能提高毫米波雷达检测目标与视觉检测目标的关联精度,从而能获取更丰富的目标信息。
-
公开(公告)号:CN118863588A
公开(公告)日:2024-10-29
申请号:CN202410919453.8
申请日:2024-07-10
申请人: 合肥工业大学
IPC分类号: G06Q10/0637 , G06Q10/0639 , G06F18/213 , G06F18/241 , G06F18/27 , G06N3/045 , G06N3/0464 , G06N3/0475 , G06N3/084
摘要: 本发明公开了一种轮胎与整车匹配量化评价方法,首先开展客观评价试验,获得整车客观指标和轮胎客观指标;接着开展主观评价试验,获得主观区域评分;接着对客观指标进行特征降维处理,然后将降维后的客观指标与主观区域评分输入主客观融合对抗生成网络进行数据增强,获得匹配增强数据集,最后利用匹配增强数据集训练主客观融合组合模型得到轮胎与整车匹配性的量化评价结果。本发明有助于为轮胎选型提供准确的评估和指导,缩短轮胎配套选项周期。
-
公开(公告)号:CN118865159A
公开(公告)日:2024-10-29
申请号:CN202411188426.4
申请日:2024-08-28
申请人: 合肥工业大学
IPC分类号: G06V20/13 , G06V20/58 , G06V10/40 , G06V10/80 , G06N3/0464 , G06V10/82 , G06N3/048 , G06V10/77 , G06N3/045
摘要: 本发明公开了一种基于多视图表示和多模态融合的3D体素占用预测方法,包括:1.采集交通场景环视图像数据和交通场景点云数据;2.利用点云数据辅助图像进行深度估计,获取带有深度的图像特征;3.体素化点云数据,获得点云体素特征;4.对带有深度的图像特征与点云体素特征执行分组池化操作,获得点云三视图特征与图像三视图特征;5.对点云三视图特征与图像三视图特征进行自适应融合,获得融合多模态三视图特征;6.对融合多模态特征进行插值采样,获得3D融合体素特征;7.构建占用预测头,输出逐体素占用预测结果。本发明能有效避免3D占用预测过程中计算开销过大的问题,并能保证足够高的预测准确率,从而对自动驾驶场景中的行车安全保障有重要意义。
-
公开(公告)号:CN116310684A
公开(公告)日:2023-06-23
申请号:CN202310263222.1
申请日:2023-03-17
申请人: 合肥工业大学
IPC分类号: G06V10/80 , G06V10/82 , G06V20/64 , G06V10/764 , G06V10/766 , G06N3/045 , G06N3/048
摘要: 本发明公开了一种基于Transformer的多模态特征融合的三维目标检测方法,包括:1.使用激光雷达采集点云数据并对点云数据进行采样,同时使用摄像头采集图像数据2.将激光雷达与摄像头采集到的数据输入基于Transformer的多模态特征融合RPN网络,提取区域建议框3.将区域建议框信息输入精细化网络,得到最终预测框。本发明能避免对基于多模态特征融合的目标检测过程中,误检、漏检的问题,从而能够保证对感知环境评估的准确性。
-
公开(公告)号:CN116794637A
公开(公告)日:2023-09-22
申请号:CN202310438706.5
申请日:2023-04-23
申请人: 合肥工业大学
摘要: 本发明公开了一种激光雷达、相机、IMU联合标定装置,涉及环境感知技术领域,联合标定装置包括机架、驱动机构、顶板、采集装置,及用于驱动顶板前倾及后仰运动的倾角调整机构和用于驱动采集装置水平摆动的摆角调整机构;联合标定方法引入角度测量仪测量获得的摆臂真实摆动角度,以比例积分法校正IMU的累计误差。本发明的倾角调整机构和摆角调整机构在同一驱动机构的驱动下,带动顶板和采集装置联动运动,实现采集装置前倾、后仰运动及水平摆动运动的联动,利于拍摄角度的细节化调整和连续性保证,能便捷地实现不同角度图像的大量拍摄采集,并以不同角度拍摄采集的大量图像提高计算结果的准确率,最终实现传感器联合组件的高精度标定。
-
公开(公告)号:CN115546761A
公开(公告)日:2022-12-30
申请号:CN202211248240.4
申请日:2022-10-12
申请人: 合肥工业大学
IPC分类号: G06V20/58 , G06N3/04 , G06N3/08 , G06T3/00 , G06T3/40 , G06T5/00 , G06V10/22 , G06V10/766 , G06V10/77 , G06V10/82
摘要: 本发明公开了一种基于深度学习的车位及障碍物检测方法及其应用,该方法包括:1.在车辆相应位置安装鱼眼摄像头;2.对鱼眼摄像头进行环视拼接并进行标注,制作数据集;3.搭建神经网络结构,采用共用一个主干网络,经过特征提取网络后生成两个检测头的网络结构,分别对停车位和障碍物进行不同方式的回归;4.训练神经网络,得到最优损失下的权重,进行停车位识别。本发明避免了在采用检测框回归的方式同时检测停车位与障碍物的过程中无法拟合停车位的问题,从而保证了在准确拟合停车位的同时也能对障碍物进行有效检测识别。
-
公开(公告)号:CN118915777A
公开(公告)日:2024-11-08
申请号:CN202411408552.6
申请日:2024-10-10
申请人: 合肥工业大学
摘要: 本发明公开了一种智能客车跟踪预定轨迹的控制方法,包括:建立智能客车局部坐标系和大地全局坐标系;获取智能客车的当前位姿信息和预瞄点位姿信息;计算道路曲率;建立智能客车关于路径跟踪控制问题的马尔可夫决策过程(MDP)模型;推导MKDHP算法中执行器和评价器的在线学习规则;判断预瞄点是否为预定轨迹中的终点坐标,控制智能车减速至终点;本发明所提出的MKDHP算法具有良好的泛化和自优化能力,因此有利于基于MKDHP算法的路径跟踪控制器在不同的车速及预定轨迹形状条件下获得较高的控制精度,提高了智能客车的自主优化能力和道路适应性。
-
公开(公告)号:CN115032651A
公开(公告)日:2022-09-09
申请号:CN202210630026.9
申请日:2022-06-06
申请人: 合肥工业大学
IPC分类号: G01S17/931 , G01S17/86 , G01S17/66 , G01S7/48 , G06T7/80 , G06T7/11 , G06T7/246 , G06T7/277 , G06T3/40 , G06V10/762 , G06N3/04 , G06N3/08
摘要: 本发明公开了一种基于激光雷达与机器视觉融合的目标检测方法,包括:1.在车辆相应位置安置激光雷达与相机;2.对所述激光雷达采集到的点云信息进行处理输出雷达检测框;3.对所述相机采集到的图像信息进行处理输出视觉检测框;4.对所述激光雷达和相机处理后的信息进行时空同步;5.对时空同步后的信息进行数据关联,获取关联对;6.对获取的关联对进行数据融合,并对融合的目标进行跟踪,综合连续帧目标信息输出最终融合结果。本发明能避免对基于多传感器融合的目标检测过程中,数据关联与融合过程存在大量误检、漏检的问题,从而能够保证对感知环境评估的准确性,并确保规划控制的精准执行。
-
公开(公告)号:CN118864303A
公开(公告)日:2024-10-29
申请号:CN202411346903.5
申请日:2024-09-26
申请人: 合肥工业大学
摘要: 本发明提出了一种基于平均模糊的动态物体去除方法,首先通过图像预处理,包括矫正和去噪处理,构建图像金字塔并提取ORB特征点;其次,利用基于图像金字塔和平均模糊的区域合并操作获取每个图层的区域合并结果,通过多个图层进行融合,生成当前帧的区域合并结果,再次,通过改进的RANSAC算法优化RANSAC算法结果,并进行动静态区域辨识,生成动态区域蒙版。进行后处理操作,利用动态区域蒙版去除当前帧中的动态物体,并对剩余静态区域进行相机位姿恢复、局部建图和闭环检测操作。本发明有效利用图像的局部纹理信息对图像进行处理,在对动态物体去除的过程中,避免了网络只能针对已知物体的局限,扩大了动态SLAM系统在面对动态目标时的适用场景。
-
-
-
-
-
-
-
-
-