-
公开(公告)号:CN116213838A
公开(公告)日:2023-06-06
申请号:CN202310167268.3
申请日:2023-02-22
Applicant: 清华大学
IPC: B23D79/00
Abstract: 本申请涉及金属微纤维制造技术领域,特别涉及一种制备金属微纤维的振动加工方法、装置、电子设备及介质,其中,方法包括:获取目标金属的当前微纤维结构需求;根据当前微纤维结构需求确定目标振动装置、目标刀具、加工参数和目标刀具的振动轨迹和振动参数;以及基于加工参数和振动参数,利用目标振动装置对目标刀具施加振动轨迹,以对目标金属的微纤维结构振动加工。由此,解决相关技术无法制造尺寸,形状要求较高的金属微纤维的问题,可以高效且大批量地制造尺寸,形状要求较高的金属微纤维。
-
公开(公告)号:CN114782865B
公开(公告)日:2023-04-14
申请号:CN202210413332.7
申请日:2022-04-20
Applicant: 清华大学
Abstract: 本发明公开了一种基于多视角和重识别的路口车辆定位方法及系统,基于路侧设备部署的多视角相机实现,所述方法包括:对多视角相机采集的路口原始图像进行预处理;对预处理后的视角图像依次进行特征提取、透视变换和聚合,生成路口车辆的分布鸟瞰图;将路口原始图像输入预先建立和训练好的车辆检测模型,得到路口车辆的搜索域;接收路口的车辆发送的环视图片和id信息,在搜索域中重识别该车辆,得到该车辆的某一视角图片;对重识别得到的某一视角图像进行特征提取和透视变换,并投影到鸟瞰图中,得到车辆在鸟瞰图中的位置信息;将位置信息及该车辆的id信息发送至该车辆,从而完成定位。
-
公开(公告)号:CN114550163B
公开(公告)日:2023-02-03
申请号:CN202210179044.X
申请日:2022-02-25
Applicant: 清华大学
Abstract: 本发明涉及自动驾驶中三维目标检测领域,尤其涉及基于可变形注意力机制的成像毫米波三维目标检测方法,所述方法包括:采集毫米波雷达点云数据,输入预先建立和训练好的毫米波特征增强网络,输出三维目标检测结果;所述毫米波特征增强网络,基于可变形注意力机制,加强特征表达能力。本发明的方法利用4D毫米波的优点,同时增强点云特征表达,得到更好的三维目标检测结果;采用本发明的方法能够适应恶劣天气环境,并且成本可控。
-
公开(公告)号:CN115035296A
公开(公告)日:2022-09-09
申请号:CN202210680819.1
申请日:2022-06-15
Applicant: 清华大学
Abstract: 本发明公开了一种基于鸟瞰投影的飞行汽车3D语义分割方法及系统,该方法包括:步骤1)对飞行汽车采集的不定尺寸大规模3D点云数据进行给定尺寸裁剪;步骤2)通过设定比例因子、窗格尺寸和步距,经缩小、滑窗法和正则化处理得到若干个窗格,每个窗格包括若干个网格,分别对每个网格的点云数据进行投影,得到每个窗格的RGB图像和Alt深度投影图;步骤3)将每个窗格的RGB图像和Alt深度投影图输入预先建立和训练好的2D图像语义分割模型,得到2D语义分割结果;步骤4)将2D语义分割结果,映射到3D点云数据上,得到3D语义分割结果;2D图像语义分割模型基于自注意力机制的多模型融合方法实现。
-
公开(公告)号:CN114119671B
公开(公告)日:2022-09-09
申请号:CN202111452024.7
申请日:2021-12-01
Applicant: 清华大学
Abstract: 的准确性。本发明公开了一种基于遮挡补偿的立体空间信息融合的多目标跟踪方法,所述方法包括:接收激光雷达采集的点云和相机采集的RGB图像;将点云数据输入三维检测器得到三维检测结果;将RGB图像和三维检测结果不断输入预先建立和训练好的端到端多目标跟踪网络,实时更新跟踪器,循环完成目标跟踪;所述端到端多目标跟踪网络,用于基于RGB图像和三维检测结果,并结合上一帧轨迹的运动特征和外观特征,分别建立运动关联矩阵和外观关联矩阵进行轨迹和检测的关联,并结合遮挡情况更新跟踪器实现目标
-
公开(公告)号:CN113947141B
公开(公告)日:2022-09-09
申请号:CN202111197599.9
申请日:2021-10-14
Applicant: 清华大学
Abstract: 本申请提供了一种城市路口场景的路侧灯塔感知系统,涉及自动驾驶技术领域,包括:多个路侧灯塔以及一个路边云平台,每个路侧灯塔上布设一套路侧灯塔感知装置;所述路侧灯塔感知装置,用于对多个传感器同步采集的路口目标场景的数据进行融合处理,得到目标场景感知结果,然后将原始点云以及目标场景感知结果发送至路边云平台;所述路边云平台,用于基于各路侧灯塔的点云配准获得各路侧灯塔之间的空间转换矩阵,对各路侧灯塔的原始点云以及目标场景感知结果分别进行拼接,由此得到路口点云以及路口全要素感知结果。本申请的系统具有硬件成本低以及易扩展的优点,并可以提供高质量多角度的路口目标场景数据。
-
公开(公告)号:CN113569774B
公开(公告)日:2022-04-08
申请号:CN202110879932.8
申请日:2021-08-02
Applicant: 清华大学
IPC: G06V20/56 , G06V10/26 , G06V10/774 , G06K9/62 , G06N20/00
Abstract: 本发明公开了一种基于持续学习的语义分割方法及系统,所述方法包括:通过车载单目相机实时采集路面的RGB图像;基于RGB图像识别当前场景的类型,基于场景的类型,获取其对应的最优骨架模型;将实时采集到的RGB图像输入所述最优骨架模型,输出目标检测结果。本发明的方法提高了现有目标检测的骨架模型在复杂多场景下的平均性能。
-
公开(公告)号:CN113673425B
公开(公告)日:2022-03-15
申请号:CN202110957843.0
申请日:2021-08-19
Applicant: 清华大学
Abstract: 本发明提出了一种基于Transformer的多视角目标检测方法及系统,所述方法包括:利用多个相机同时采集多个视角的RGB图像并进行预处理;将预处理后的多个视角的RGB图像输入训练好的多视角目标检测模型,输出包含目标检测检测结果的鸟瞰图;所述多视角目标检测模型包括:特征提取模块、Transformer模型和投影模块;所述特征提取模块,用于提取每个视角的RGB图像的多尺度特征图,将多个视角的多尺度特征图输入Transformer模型;所述Transformer模型,用对输入的特征图的进行目标检测,输出bounding box;所述投影模块,用于以Transformer模型预测的bounding box的中点为中心生成一个高斯热图,与特征提取模块输出的多个视角的特征图进行融合,再经过投影变换和卷积后输出鸟瞰图。
-
公开(公告)号:CN112966777B
公开(公告)日:2021-11-30
申请号:CN202110328124.2
申请日:2021-03-26
Applicant: 清华大学
Abstract: 本发明公开了一种基于人机交互的半自动标注方法及系统,所述方法包括:将待标注的RGB图像与产生的第一高斯热图进行融合;对融合图像进行预处理;将预处理后的融合图像输入预先建立和训练好的半自动标注模型,对待标注RGB图像标注多个预测框;当有预测框不满足要求,则通过产生第二高斯热图对不满足要求的预测框进行修正。本发明的方法将高斯热图作为先验信息来对目标进行检测,进而达到半自动标注的预期效果;可以摆脱人工标注费时费力的弊端,并提高标注的精度。
-
公开(公告)号:CN113673444A
公开(公告)日:2021-11-19
申请号:CN202110971811.6
申请日:2021-08-19
Applicant: 清华大学
Abstract: 本发明公开了一种基于角点池化的路口多视角目标检测方法及系统,所述方法包括:对实时采集的路口多视角相机的图像进行预处理;将预处理后的多视角相机的图像输入预先建立和训练好的路口多视角目标检测模型,输出目标预测结果;其中,所述多视角目标检测模型用于提取预处理后的多视角相机的图像的特征、将提取的特征进行特征投影、特征融合和角点池化,通过角点池化处理后的地平面矩形特征图预测目标位置,同时将提取的特征进行单视角检测和结果投影,通过单视角目标位置映射图对目标位置进行校正,输出目标预测结果。
-
-
-
-
-
-
-
-
-