-
公开(公告)号:CN113830078A
公开(公告)日:2021-12-24
申请号:CN202111214905.5
申请日:2021-10-19
Applicant: 同济大学
Abstract: 本发明涉及一种基于停车位角点检测的自动泊车方法及系统,方法包括以下步骤:1)将停车位鸟瞰图输入特征检测器,获得角点、入口线以及边线的热力图;2)对角点热力图进行过滤,获得角点列表;3)对角点列表中的角点两两组合,计算每个角点组合中两个角点之间的距离,构成距离表;4)剔除距离表中不满足国标停车位尺寸要求的角点组合;5)剔除距离表中不满足椭圆限制条件的角点组合;6)根据入口线以及边线的热力图获取入口线和边线的朝向,剔除距离表中不满足与入口线以及边线的相对位置关系的角点组合;7)根据距离表中的角点组合确定停车位区域,根据停车位位置完成自动泊车。与现有技术相比,本发明具有计算复杂度低、部署难度低等优点。
-
公开(公告)号:CN109635672A
公开(公告)日:2019-04-16
申请号:CN201811398916.1
申请日:2018-11-22
Applicant: 同济大学
Abstract: 本发明涉及一种无人驾驶的道路特征参数估计方法,包括:六自由度惯导信息获取;三维激光点云数据获取;激光点云运动补偿;6sigma高程的路面候选点提取;3sigma高差的坡面候选点提取;主成分分析法路面拟合;主成分分析法坡面拟合;1sigma路面点提取;1sigma坡面点提取;对路面点和坡面点反射强度进行特征分解;路沿边界点提取;对路面附着系数进行估计;估计模型对道路曲率进行估计;对路沿进行拟合估计;对坡度进行估计,最终输出一幅富含道路特征参数的栅格地图,以供无人驾驶感知、决策和规划模块使用。与现有技术相比,本发明具有实现鲁棒的路面附着系数估计、路沿曲率连续、道路曲率道路坡度快速估计等优点。
-
公开(公告)号:CN109398349A
公开(公告)日:2019-03-01
申请号:CN201811056910.6
申请日:2018-09-11
Applicant: 同济大学
IPC: B60W30/06
Abstract: 本发明涉及一种基于几何规划及强化学习的自动泊车方法及系统,本发明方法在自动泊车的初始阶段,通过确定泊车状态,利用几何规划确定泊车轨迹,再交由轨迹跟踪和底盘控制进行控制,利用上述阶段,车辆能够调整到能够一次入库的位姿,此时再交由强化学习进行控制。与现有技术相比,本发明可以消除轨迹规划-轨迹跟踪-底盘控制的误差,达到更为理想的泊车位姿,且能够适用于城市内的狭小泊车环境,对环境的适应性强。
-
公开(公告)号:CN114118247B
公开(公告)日:2025-05-02
申请号:CN202111384455.4
申请日:2021-11-18
Applicant: 同济大学
Abstract: 本发明涉及一种基于多传感器融合的无锚框3D目标检测方法,包括:获取彩色RGB图像和激光点云;对彩色RGB图像进行语义分割,得到各像素的类别信息;利用类别信息对激光点云的特征进行增强,得到增强激光点云;对增强激光点云分别进行点云几何特征编码、点云可见性特征编码,得到几何特征和可见性特征;将几何特征与可见性特征进行堆叠,得到堆叠特征;将堆叠特征输入多层特征提取网络,提取不同层级的特征信息,再将各层级的特征信息进行堆叠,得到融合特征;将融合特征输出给无锚框目标检测器,以得到3D目标检测结果。与现有技术相比,本发明通过多模态数据的融合,利用传感器之间的优势互补来增强3D目标检测性能,从而实现准确快速检测的目的。
-
公开(公告)号:CN113830078B
公开(公告)日:2023-08-04
申请号:CN202111214905.5
申请日:2021-10-19
Applicant: 同济大学
Abstract: 本发明涉及一种基于停车位角点检测的自动泊车方法及系统,方法包括以下步骤:1)将停车位鸟瞰图输入特征检测器,获得角点、入口线以及边线的热力图;2)对角点热力图进行过滤,获得角点列表;3)对角点列表中的角点两两组合,计算每个角点组合中两个角点之间的距离,构成距离表;4)剔除距离表中不满足国标停车位尺寸要求的角点组合;5)剔除距离表中不满足椭圆限制条件的角点组合;6)根据入口线以及边线的热力图获取入口线和边线的朝向,剔除距离表中不满足与入口线以及边线的相对位置关系的角点组合;7)根据距离表中的角点组合确定停车位区域,根据停车位位置完成自动泊车。与现有技术相比,本发明具有计算复杂度低、部署难度低等优点。
-
公开(公告)号:CN114120270A
公开(公告)日:2022-03-01
申请号:CN202111314134.7
申请日:2021-11-08
Applicant: 同济大学
Abstract: 本发明涉及一种基于注意力和采样学习的点云目标检测方法,包括以下步骤:1)采集待检测目标的点云数据;2)根据点云数据,通过点云提取网络提取点云特征;3)根据点云特征,通过k最近值下采样法筛选出目标索引点特征;4)根据目标索引点特征,通过自适应点云特征聚合网络,将点云特征聚合为候选目标特征;5)根据候选目标特征,通过多层感知机生成待检测目标的类别、位置和尺寸信息。与现有技术相比,本发明具有可靠性强、准确率高等优点。
-
公开(公告)号:CN114118254A
公开(公告)日:2022-03-01
申请号:CN202111391868.5
申请日:2021-11-19
Applicant: 同济大学
Abstract: 本发明涉及一种基于多任务融合的三维目标检测系统及其方法,该检测系统包括RGB相机、激光雷达和融合算法感知模块,该检测方法包括:通过RGB相机采集车辆前方交通场景图像,通过激光雷达采集车辆周围三维点云数据;车辆前方交通场景图像传输给图像处理单元,以对车辆前方交通场景图像进行语义分割,输出对应语义信息给点云处理单元;车辆周围三维点云数据传输给点云处理单元,以对车辆周围三维点云数据添加对应语义信息,并对添加了语义信息的点云数据进行三维目标检测,输出三维目标检测结果。与现有技术相比,本发明能够在复杂的低光照环境下有效提高三维目标检测的精度。
-
公开(公告)号:CN109919051A
公开(公告)日:2019-06-21
申请号:CN201910131936.0
申请日:2019-02-22
Applicant: 同济大学
Abstract: 本发明涉及一种用于视频图像处理的卷积神经网络加速方法,包括以下步骤:S1:将用于视频图像处理的整个卷积神经网络分为第一阶段和第二阶段,第一阶段包括但不限于两个具有相同输入、计算量不同的子网络,将计算量较小的子网络作为快路径,将计算量较大的子网络作为慢路径;S2:令两条路径异步执行,并对快、慢路径进行视频处理的特征图进行更新;S3:通过包括但不限于拼接、求和、全连接等融合方式将两条路径的特征图进行融合,将融合的输出作为第二阶段的输入;S4:根据最终目标问题设计第二阶段模型,组成完整的网络模型,并对模型进行训练和部署。与现有技术相比,本发明具有加快神经网络的运行速度的同时保证精度的优点。
-
-
-
-
-
-
-