-
公开(公告)号:CN117315595A
公开(公告)日:2023-12-29
申请号:CN202210686027.5
申请日:2022-06-16
Abstract: 本申请公开了一种基于门控图神经网络的对象重识别方法及电子设备,该方法包括:对多个样本图像进行特征提取,以获取样本图像的特征信息;基于多个所述样本图像构建知识图;将知识图导入门控图神经网络,并将样本图像的特征信息输入门控图神经网络进行迭代训练;将待识别图像的特征信息输入训练完成的门控图神经网络,通过门控图神经网络基于知识图和权重,确定待识别图像中待识别对象与知识图中各节点所表示的类型之间的第一相似度,以对待识别图像中的待识别对象进行重识别。该方法能够实现在相似类别之间转移类别的原型表示,能够加快迭代训练的进度,即使用于训练的样本数量较少,也能够使门控图神经网络形成较高的准确率。
-
公开(公告)号:CN116433554A
公开(公告)日:2023-07-14
申请号:CN202111651418.5
申请日:2021-12-30
IPC: G06T7/00 , G06T7/10 , G06V20/58 , G06V10/774 , G06V10/764
Abstract: 本申请公开了一种基于先验模板的车位检测方法及电子设备,该方法包括:获取用于停车的目标区域的第一图像,其中所述目标区域中具有多个车位;基于所述目标区域的先验模板对所述第一图像进行切割,生成多个与所述车位对应的图像块,其中所述先验模板表征所述车位在所述第一图像中的位置信息;利用训练完成的分类网络对所述图像块进行分类操作,生成表征所述车位是否停有车辆的分类结果。该方法能够利用分类网络,准确的对图像块进行识别,从而在车位上无需安装侦测设备的情况下,也能够实现对车位上述是否停有车辆的准确检测,降低了成本,同时也能够为车辆提供更加可靠的服务。
-
公开(公告)号:CN114913198A
公开(公告)日:2022-08-16
申请号:CN202110127063.3
申请日:2021-01-29
Abstract: 一种多目标跟踪方法及装置、存储介质、终端,所述方法包括:在对多个目标进行跟踪期间,获取当前时刻对所述多个目标中第一目标的跟踪结果;若所述跟踪结果为未匹配的跟踪,则根据所述多个目标的历史检测结果确定所述第一目标所属集群,其中,属于同一集群的多个目标具有相同的物体属性和相似的运动属性;根据所述集群内除第一目标外的目标在当前时刻的检测结果以及所述集群内各目标之间的相对运动关系,恢复所述第一目标在当前时刻的轨迹。通过本发明方案能够对被遮挡的物体进行轨迹预测和跟踪,利于确保目标跟踪的完整性。
-
公开(公告)号:CN114913198B
公开(公告)日:2025-04-15
申请号:CN202110127063.3
申请日:2021-01-29
Abstract: 一种多目标跟踪方法及装置、存储介质、终端,所述方法包括:在对多个目标进行跟踪期间,获取当前时刻对所述多个目标中第一目标的跟踪结果;若所述跟踪结果为未匹配的跟踪,则根据所述多个目标的历史检测结果确定所述第一目标所属集群,其中,属于同一集群的多个目标具有相同的物体属性和相似的运动属性;根据所述集群内除第一目标外的目标在当前时刻的检测结果以及所述集群内各目标之间的相对运动关系,恢复所述第一目标在当前时刻的轨迹。通过本发明方案能够对被遮挡的物体进行轨迹预测和跟踪,利于确保目标跟踪的完整性。
-
公开(公告)号:CN115690337A
公开(公告)日:2023-02-03
申请号:CN202110849234.3
申请日:2021-07-27
Abstract: 本公开实施例提供了一种半动态地图的构建方法、定位方法、存储介质以及终端设备,所述半动态地图的构建方法包括:S1,基于第一环境构建第一静态地图;S3,确定所述第一静态地图中的半动态物体;S5,确定所述第一静态地图中的半动态物体的位置坐标;S7,根据所述第一静态地图中的半动态物体的位置坐标,生成第一半动态地图。所述定位方法包括:将第二环境下的半动态物体与第一环境下的半动态物体进行位置比较并将第二环境下的静态物体与第一环境下的静态物体进行位置比较,进而进行定位。所述半动态地图的构建方法和定位方法通过降低环境中的半动态物体对定位的影响,从而提升无人驾驶设备在第二环境下的定位精确度。
-
公开(公告)号:CN119475074A
公开(公告)日:2025-02-18
申请号:CN202411258407.4
申请日:2024-09-09
Applicant: 清华大学
IPC: G06F18/2415 , G06F18/214 , G06N3/0464
Abstract: 本申请提供一种基于自适应混合专家的自动驾驶多任务感知方法,包括:获取自车多个传感器采集的原始数据;利用预先训练完成的多任务感知模型对原始数据进行处理,得到N个任务的感知结果;其中,所述多任务感知模型包括N个任务分支,每个任务分支包括依次连接的骨干网络和检测头,每个骨干网络包括M个依次连接的卷积单元,每个任务分支的同级的卷积单元均连接一个门控网络,所述门控网络用于控制同级的每个卷积单元的输出是否作为连接的下一级卷积单元的输入。本申请提高全景驾驶感知系统对周围环境的理解和准确性。
-
公开(公告)号:CN119223305A
公开(公告)日:2024-12-31
申请号:CN202411190280.7
申请日:2024-08-28
Applicant: 清华大学
Abstract: 本公开涉及一种多机器人视觉语义导航方法,多个机器人有各自的可通行区域,每个机器人根据其过去对场景的观测建立语义地图,并通过彼此间的通讯来完善语义地图。在进行顶层规划时,机器人不仅考虑每个位置存在目标物体的概率,还综合考虑对该位置预测的不确定性,将概率和不确定性进行加权求和后选择可行域中分值最高的点作为下一步的目标位置,在导航的过程中持续更新可行域地图和语义地图,直到其中一个机器人找到目标物体时停止。本公开平衡了探索与利用间的关系,让机器人在初期时进行尽可能多的探索,而在对环境有一定的感知信息后能够更快的定位到目标物体,用于各场景的目标物体寻找,且目标物体的类别为语义地图中任一类,无需额外训练。
-
公开(公告)号:CN113505646B
公开(公告)日:2024-04-12
申请号:CN202110648665.3
申请日:2021-06-10
Applicant: 清华大学
IPC: G06V20/10 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08 , G06T5/70 , G06T7/50 , G06T7/70 , G01C21/20
Abstract: 本发明提出一种基于语义地图的目标搜索方法,属于机器人导航、计算机视觉领域。该方法首先建立语义关系图,对待进行目标搜索的空间建立导航图并选取采样点,在各采样点从多视角采集RGB图和深度图;机器人根据任一采样点单个视角的RGB图获得该视角中物体的语义掩膜,结合深度图完成该视角局部的三维语义重建;整合所有局部的三维语义重建,得到待进行目标搜索的空间的语义点云;去除点云中的z维数据并去噪,得到该空间的语义地图;机器人在语义地图中查询待搜索的目标物体是否为已知物体并执行相应的搜索策略;搜索完成后,更新未知目标物体与各父类物体的语义关系图。本发明可使机器人对真实环境具有良好感知能力,提高目标搜索的效率。
-
公开(公告)号:CN117523173A
公开(公告)日:2024-02-06
申请号:CN202311257907.1
申请日:2023-09-26
Applicant: 清华大学
IPC: G06V10/25 , G06V10/764 , G06V10/762
Abstract: 本申请提供一种服务灯塔认知的3D目标检测任务模型高效训练方法,涉及自动驾驶技术领域,所述方法包括:利用当前时刻之前的预设数量的训练完成的第一3D目标检测任务模型对RGB图像进行处理,得到目标检测结果;将RGB图像的预设目标类别的标注结果和目标检测结果进行叠加,得到训练数据;利用所述训练数据对当前时刻的第二3D目标检测任务模型进行训练,得到训练完成的当前时刻的第二3D目标检测任务模型;利用训练完成的当前时刻的第二3D目标检测任务模型,对训练完成的上一时刻的第一3D目标检测任务模型进行更新,得到训练完成的当前时刻的第一3D目标检测任务模型。本申请的方法通过连续学习解决了模型训练出现的灾难性遗忘问题。
-
公开(公告)号:CN117523171A
公开(公告)日:2024-02-06
申请号:CN202311254890.4
申请日:2023-09-26
Applicant: 清华大学
Abstract: 本申请提供一种面向灯塔认知多场景鲁棒的视觉3D目标检测方法,涉及自动驾驶技术领域,包括:获取目标场景的RGB图像;利用预先训练完成的骨干网络对RGB图像进行处理,得到第一图像特征图;利用预先训练完成的动态深度网络对第一图像特征图进行处理,得到语义特征图和深度分布图;将语义特征图和深度分布图进行相乘,得到第二图像特征图;利用体素池化对第二图像特征进行处理,得到BEV特征图;利用检测头对BEV特征图进行处理,得到3D目标检测结果。本申请提高了多场景的目标检测精度。
-
-
-
-
-
-
-
-
-