-
公开(公告)号:CN113156479A
公开(公告)日:2021-07-23
申请号:CN202110307331.X
申请日:2021-03-23
Applicant: 同济大学
Abstract: 本发明涉及一种室外乡村道路场景的组合定位方法,根据室外乡村道路场景的特殊性,首先基于道路场景情况,在树林、天桥和隧道等卫星信号较弱区域布置合适数量的超宽带(UWB)定位标签;其次利用高精定位设备对UWB定位标签进行位置标定;最后在车端搭建由全球导航卫星系统(GNSS)和UWB定位标签形成的组合定位系统,该组合定位系统包含组合定位控制器的微控制单元(MCU),并在MCU中融合GNSS和UWB的定位信息,输出自车的最终位置信息。与现有技术相比,本发明具有成本较低、定位精确高和定位数据稳定可靠等优点。
-
公开(公告)号:CN109760635B
公开(公告)日:2020-11-27
申请号:CN201910017056.0
申请日:2019-01-08
Applicant: 同济大学
Abstract: 本发明涉及一种基于GAN网络的线控雨刷控制系统,用以实现智能汽车的雨刷控制,该系统包括依次连接的前视相机、智驾控制器、整车控制器、雨刷控制器、驱动电机总成、减速器和刮雨器,前视相机实时采集前方道路图像,并将图像通过USB数据线传输到智驾控制器,智驾控制器内部设有GAN网络架构,用以去除雨天获取的图像中的雨滴,并通过图像实时检测车辆周边雨量大小,并将雨刷档位的调整信号通过CAN线传递到整车控制器,整车控制器获取智驾控制器的CAN信号后,实时调整雨刷控制器的工作状态,雨刷控制器通过脉冲信号控制驱动电机总成工作,控制雨刷去除前挡风玻璃外侧雨滴,与现有技术相比,本发明具有实用性强、开发成本低、适用性高等优点。
-
公开(公告)号:CN114118254B
公开(公告)日:2025-05-02
申请号:CN202111391868.5
申请日:2021-11-19
Applicant: 同济大学
Abstract: 本发明涉及一种基于多任务融合的三维目标检测系统及其方法,该检测系统包括RGB相机、激光雷达和融合算法感知模块,该检测方法包括:通过RGB相机采集车辆前方交通场景图像,通过激光雷达采集车辆周围三维点云数据;车辆前方交通场景图像传输给图像处理单元,以对车辆前方交通场景图像进行语义分割,输出对应语义信息给点云处理单元;车辆周围三维点云数据传输给点云处理单元,以对车辆周围三维点云数据添加对应语义信息,并对添加了语义信息的点云数据进行三维目标检测,输出三维目标检测结果。与现有技术相比,本发明能够在复杂的低光照环境下有效提高三维目标检测的精度。
-
公开(公告)号:CN112896879B
公开(公告)日:2022-11-18
申请号:CN202110206807.0
申请日:2021-02-24
Applicant: 同济大学
Abstract: 本发明涉及一种用于智能环卫车的环境感知系统,包括两个单目鱼眼相机、智驾控制器、单线激光雷达和单点超声波雷达。所有传感器均连接至智驾控制器,并于其中完成数据处理和融合,同时将感知结果提醒驾驶员。两个鱼眼相机分别采集环卫车周围的广角环境图像,通过视角差异完成垃圾桶的精确定位。智驾控制器内部设有相应的深度学习网络框架,利用单目鱼眼视角范围大的优势,提醒驾驶员避免事故。在垃圾桶精确定位过程中,根据离线查表法,将垃圾桶的像素坐标转换至世界坐标系下的空间坐标,进而驱动机械臂完成垃圾桶的夹持工作。与现有技术相比,本发明引入人工智能技术,极大提高环卫车的智能化水平,在确保安全的同时更有效地完成垃圾转移作业。
-
公开(公告)号:CN115083013A
公开(公告)日:2022-09-20
申请号:CN202210579335.8
申请日:2022-05-25
Applicant: 同济大学
IPC: G06V40/20 , G06N3/04 , G06N3/08 , G06V10/40 , G06V10/764 , G06V10/774
Abstract: 本发明涉及一种人体姿态估计方法,包括以下步骤:S1:获取多张待识别图像和每张待识别图像所对应的标注信息,将待识别图像分为训练集图像和测试集图像,根据测试集图像以及测试集图像所对应的标注信息获取热力图;S2:将训练集图像和训练集图像所对应的标注信息输入训练好的人体关键点检测模型,获取尺度因子;S3:根据尺度因子修正S1获取的热力图,然后根据修正后的热力图获取待识别图像中所有关键点的位置;S4:采用训练好的生成对抗网络模型对S3中所有关键点进行分组组合,获取待识别图像中所有人物的人体姿态信息图。与现有技术相比,本发明能够高效提升多尺度实例的关键点检测以及关键点组合。
-
公开(公告)号:CN114118247A
公开(公告)日:2022-03-01
申请号:CN202111384455.4
申请日:2021-11-18
Applicant: 同济大学
IPC: G06K9/62 , G06N3/04 , G06V20/70 , G06V10/80 , G06V10/764
Abstract: 本发明涉及一种基于多传感器融合的无锚框3D目标检测方法,包括:获取彩色RGB图像和激光点云;对彩色RGB图像进行语义分割,得到各像素的类别信息;利用类别信息对激光点云的特征进行增强,得到增强激光点云;对增强激光点云分别进行点云几何特征编码、点云可见性特征编码,得到几何特征和可见性特征;将几何特征与可见性特征进行堆叠,得到堆叠特征;将堆叠特征输入多层特征提取网络,提取不同层级的特征信息,再将各层级的特征信息进行堆叠,得到融合特征;将融合特征输出给无锚框目标检测器,以得到3D目标检测结果。与现有技术相比,本发明通过多模态数据的融合,利用传感器之间的优势互补来增强3D目标检测性能,从而实现准确快速检测的目的。
-
公开(公告)号:CN114005280A
公开(公告)日:2022-02-01
申请号:CN202111360841.X
申请日:2021-11-17
Applicant: 同济大学
IPC: G08G1/01
Abstract: 本发明涉及一种基于不确定性估计的车辆轨迹预测方法,包括:实时采集周围车辆的位姿信息和局部语义地图信息,并得到车辆历史位姿信息;根据采集的车辆位置信息,结合高精地图、车道连通关系以及交通规则,确定出未来轨迹终点的所有候选车道;根据车辆位姿和局部语义地图评估车辆历史位姿的不确定性;将车辆历史位姿转换至各车道坐标系下,结合车道走向等信息进行特征编码,预测车辆行驶终点在各候选车道上的概率;根据特征编码预测目标车辆的未来行驶路线的概率分布。与现有技术相比,本发明解决了现有技术中忽视输入车辆历史位姿不确定性和轨迹多模态建模不完整的问题,能够为自动驾驶的下游决策规划提供准确可靠的信息来源、降低风险。
-
公开(公告)号:CN113870362A
公开(公告)日:2021-12-31
申请号:CN202111152944.7
申请日:2021-09-29
Applicant: 同济大学
Abstract: 本发明涉及一种用于融合红外和RGB信息的相机标定方法,包括底座、红外相机、RGB相机、分束器和标定板,红外相机通过第二三轴相机夹具设置在底座上,RGB相机通过第一三轴相机夹具设置在底座上,分束器通过分束器夹具设置在底座上,标定板为双色棋盘,双色棋盘上两种颜色的棋盘格上分别覆盖有高导热性材料和低导热性材料;分束器包括透镜,透镜的前、后表面分别镀有红外增透膜和可见光反射膜。与现有技术相比,本发明对红外相机和RGB相机进行联合标定,能直接采集实现空间对齐的红外和RGB图像对,避免视差导致的对齐图像出现空洞,促进红外和RGB信息融合的相关工作。
-
公开(公告)号:CN110161485B
公开(公告)日:2021-03-26
申请号:CN201910511493.8
申请日:2019-06-13
Applicant: 同济大学
Abstract: 本发明涉及一种激光雷达与视觉相机的外参标定装置,该装置包括依次设置的带有万向轮的支座、伸缩套筒、插入伸缩套筒上端内部且通过伸缩杆固定螺母固定位置的伸缩杆、固定在伸缩杆上端的球头座、球头座连接的球头支架以及与球头支架连接的标定板,所述的标定板为一表面平整的圆形黑色塑料板,在近边缘位置设置一个圆孔,且标定板表面按照棋盘格铣削方形凹槽,并在凹槽内嵌设白色方形的铝合金薄片,使铝合金薄片与标定板形成表面平整的矩形黑白棋盘格形式。与现有技术相比,本发明具有实用简便、通用性强等优点。
-
公开(公告)号:CN109131317A
公开(公告)日:2019-01-04
申请号:CN201810812794.X
申请日:2018-07-23
Applicant: 同济大学
IPC: B60W30/06
Abstract: 本发明提供了一种基于多段式规划与机器学习的自动垂直泊车系统及泊车方法,通过环视摄像头采集图像,超声波传感器检测障碍物信息判断相对库位的位置、航向信息和库位的有效性信息。当识别到合适大小和无车辆占用的库位时,开始进入自动泊车过程。自动泊车系统根据当前自车位姿和库位信息进行泊车路径的规划,如有需要利用多段R‑S曲线调整自车位姿至合适位置,再根据学习网络生成二次螺旋线泊车轨迹。通过电控装置控制方向盘、油门和制动踏板进行泊车入库。本发明利用二次螺旋线训练集和学习网络,改善泊车过程的效率和对路径偏移的适应能力,结合R‑S曲线进行多段式规划,实现极小范围内的泊车规划高成功率,适用范围更广,泊车过程更加可靠。
-
-
-
-
-
-
-
-
-