-
公开(公告)号:CN113237482A
公开(公告)日:2021-08-10
申请号:CN202110519891.1
申请日:2021-05-13
Applicant: 东南大学 , 东南大学江北新区创新研究院
Abstract: 本发明公开了一种基于因子图的城市峡谷环境下车辆鲁棒定位方法。在现有方法基础上,本方法首先引入激光雷达观测量,其次,构建基于因子图的动态融合模型,接着,提出一种既考虑观测量可用性及可靠性,又遵循特定选用策略的动态融合规则,根据规则决定是否将观测量引入因子图,最后,利用因子图实现定位数据更新。本发明公开的车辆定位方法,克服了现有方法观测量不够冗余、融合模型不够灵活等难题,保障了城市峡谷环境下自动驾驶汽车高精鲁棒定位。
-
公开(公告)号:CN113237482B
公开(公告)日:2022-05-13
申请号:CN202110519891.1
申请日:2021-05-13
Applicant: 东南大学 , 东南大学江北新区创新研究院
Abstract: 本发明公开了一种基于因子图的城市峡谷环境下车辆鲁棒定位方法。在现有方法基础上,本方法首先引入激光雷达观测量,其次,构建基于因子图的动态融合模型,接着,提出一种既考虑观测量可用性及可靠性,又遵循特定选用策略的动态融合规则,根据规则决定是否将观测量引入因子图,最后,利用因子图实现定位数据更新。本发明公开的车辆定位方法,克服了现有方法观测量不够冗余、融合模型不够灵活等难题,保障了城市峡谷环境下自动驾驶汽车高精鲁棒定位。
-
公开(公告)号:CN117422771A
公开(公告)日:2024-01-19
申请号:CN202311285348.5
申请日:2023-10-07
Applicant: 东南大学
Abstract: 本发明公开了一种相机与激光雷达传感器设备的外参标定方法及系统,首先,使用采集设备采集图像和点云数据,在激光雷达采集到的原始点云数据中进行路面提取,对提取到的路面点云数据采用体素补全的方式得到路面点云补全数据,并对补全后的点云数据的反射强度值进行直方图均衡化以增强车道标识和路面间反射强度的对比度;再将路面点云数据投影至像平面后与相机图像进行特征点匹配,利用求得的匹配特征点求解出初始外部参数;最后利用互信息值构建由外部参数中元素组成的目标函数,使用优化算法优化求得最佳的外部参数。本发明方法,在保证标定精度的同时具备可在线完成标定、流程简单、适应性强,满足自动驾驶系统中对外部参数的在线标定需求。
-
公开(公告)号:CN114863708A
公开(公告)日:2022-08-05
申请号:CN202210501894.7
申请日:2022-05-09
Applicant: 东南大学
Abstract: 本发明公开了一种面向营运车辆的道路合流区路侧实时精准诱导方法。现有的路侧诱导方法在诱导的实时性、诱导精准性方面无法适用于营运车辆。本发明的方法包含以下几个步骤:步骤一:训练环境中的输入数据预处理;步骤二:设计状态空间、动作空间、奖励函数;步骤三:基于深度确定性策略梯度算法,设计深度策略网络和动作网络并进行训练;步骤四:评估营运车辆诱导效果。本发明能够将转向、制动、加速等方面精准量化的安全性最优的驾驶建议发送给营运车辆,诱导营运车辆安全且高效地通过道路合流区。
-
公开(公告)号:CN112505684B
公开(公告)日:2023-12-01
申请号:CN202011288075.6
申请日:2020-11-17
Applicant: 东南大学
Abstract: 本发明公开了一种恶劣环境路侧视角下雷达视觉融合的车辆多目标跟踪方法,该方案融合雷达和视觉传感器,设计了一种结合目标距离和雷达散射面积的标定代价函数,实现了雷达视觉数据级融合处理,提升了感知信息的维度与可靠性,通过引入数据增强和抗干扰编码器解码器结构,设计了一种具有高抗扰能力的目标检测网络架构,提升了恶劣环境下目标跟踪系统的识别能力;最后,通过对目标位置与目标距离的相似度计算,赋予不同状态空间目标不同的跟踪策略,实现了对静态识别目标的动态准确跟踪过程。本发明借助数据和模型两个层面的融合增强处理,使得方案具有较强的可靠性和准确性,能够在诸如逆光、夜间等场景下持续准确获取车辆目标的位置与速度信息。
-
公开(公告)号:CN112581498A
公开(公告)日:2021-03-30
申请号:CN202011290831.9
申请日:2020-11-17
Applicant: 东南大学
Abstract: 本发明涉及一种面向智能车路系统的路侧遮挡场景车辆鲁棒跟踪方法,该方法的核心在于,依靠少量标注的遮挡场景目标实例,基于生成对抗网络和场景迁移的方法,设计了一种具有局部遮挡及开阔场景适应性的目标检测跟踪模块,从而大举减少局部遮挡场景下目标检测跟踪模块丢失目标的概率,另一方面,基于卡尔曼动态位置估计的方法,设计了适用于严重遮挡场景过程的车辆多目标跟踪模块,通过集成上述两种模块,形成了遮挡场景全过程的车辆目标鲁棒跟踪系统。本发明所设计的方案具有较强的遮挡场景适应性和目标位置跟踪能力,可广泛应用于智能车路系统不同的遮挡场景之中。
-
公开(公告)号:CN112132746A
公开(公告)日:2020-12-25
申请号:CN202010982493.9
申请日:2020-09-17
Applicant: 东南大学
Abstract: 本发明公开了一种面向智能路侧设备的小尺度行人目标快速超分辨率化方法,该方法包括:采集并构建小尺度行人高低分辨率数据训练集;基于生成对抗思想,搭建针对低分辨率小尺度行人图像的轻量化生成网络,该网络首先利用可分离卷积进行图像初步特征的提取,然后结合残差模块对高频信息进行拟合,最后借助像素重组模块对低分辨率行人图像进行高分辨率化重建;搭建判别网络,对生成网络的参数进行判别训练,得到最佳生成网络;利用最佳生成网络对低分辨率小尺度行人图片进行超分辨化,得到高分辨率的行人目标。本发明所设计轻量级的超分辨率化生成网络具备训练时间短、推理延时低的显著优势,填补了智能路侧领域小尺度行人实时超分辨率化技术空白。
-
公开(公告)号:CN111694010A
公开(公告)日:2020-09-22
申请号:CN202010459125.6
申请日:2020-05-27
Applicant: 东南大学
Abstract: 一种基于视觉与激光雷达融合的路侧车辆识别方法,该方法针对路侧视角不同光照条件下车辆识别准确率低的问题,首先进行路侧环境感知系统传感器的标定,包括摄像机的自标定与传感器间的联合标定,为传感器信息融合奠定基础;其次,在数据层级和特征层级上融合图像信息与雷达点云数据,并搭建了基于视觉与激光雷达融合的路侧车辆识别网络模型CBYOLO;然后,利用路侧数据集训练CBYOLO网络;最后,使用训练好的CBYOLO网络进行路侧车辆识别。本发明提出的一种基于视觉与激光雷达融合的路侧车辆识别方法具有良好的环境适应能力和较高的准确率。
-
公开(公告)号:CN112581498B
公开(公告)日:2024-03-29
申请号:CN202011290831.9
申请日:2020-11-17
Applicant: 东南大学
IPC: G06T7/246 , G06T7/277 , G06T7/62 , G06N3/0464
Abstract: 本发明涉及一种面向智能车路系统的路侧遮挡场景车辆鲁棒跟踪方法,该方法的核心在于,依靠少量标注的遮挡场景目标实例,基于生成对抗网络和场景迁移的方法,设计了一种具有局部遮挡及开阔场景适应性的目标检测跟踪模块,从而大举减少局部遮挡场景下目标检测跟踪模块丢失目标的概率,另一方面,基于卡尔曼动态位置估计的方法,设计了适用于严重遮挡场景过程的车辆多目标跟踪模块,通过集成上述两种模块,形成了遮挡场景全过程的车辆目标鲁棒跟踪系统。本发明所设计的方案具有较强的遮挡场景适应性和目标位置跟踪能力,可广泛应用于智能车路系统不同的遮挡场景之中。
-
公开(公告)号:CN114863708B
公开(公告)日:2023-04-18
申请号:CN202210501894.7
申请日:2022-05-09
Applicant: 东南大学
IPC: G08G1/0967 , G08G1/16 , G06N3/0464 , G06N3/092 , G06Q10/0635
Abstract: 本发明公开了一种面向营运车辆的道路合流区路侧实时精准诱导方法。现有的路侧诱导方法在诱导的实时性、诱导精准性方面无法适用于营运车辆。本发明的方法包含以下几个步骤:步骤一:训练环境中的输入数据预处理;步骤二:设计状态空间、动作空间、奖励函数;步骤三:基于深度确定性策略梯度算法,设计深度策略网络和动作网络并进行训练;步骤四:评估营运车辆诱导效果。本发明能够将转向、制动、加速等方面精准量化的安全性最优的驾驶建议发送给营运车辆,诱导营运车辆安全且高效地通过道路合流区。
-
-
-
-
-
-
-
-
-