-
公开(公告)号:CN114463780A
公开(公告)日:2022-05-10
申请号:CN202111459545.5
申请日:2021-12-01
Applicant: 北京科技大学
Abstract: 本发明公开了一种基于视觉的多刚体行人模型姿态重建方法,包括:从事故视频中提取包含行人的图像帧;将图像帧输入3D人体形态识别模型中,提取出图像帧中行人的姿态参数、体形参数及相机参数;将提取的姿态参数、体形参数和相机参数导入SMPL参数化人体模型,生成SMPL模型的人体姿态和关节点;初始化Madymo多刚体行人模型的原始姿态和关节位置,并匹配Madymo多刚体行人模型和SMPL模型的相同位置关节点;将SMPL模型的姿态参数导入Madymo多刚体行人模型,生成带有真实行人姿态的假人模型。本发明方法可以直接从视频帧中实时生成假人模型姿态,有助于人车碰撞事故的快速重建。
-
公开(公告)号:CN113158766A
公开(公告)日:2021-07-23
申请号:CN202110206460.X
申请日:2021-02-24
Applicant: 北京科技大学
Abstract: 本发明提供一种面向无人驾驶的基于姿态估计的行人行为识别方法,属于人体姿态识别技术领域。该方法首先通过车载单目摄像头捕获交通场景下的行人视频流并解码为RGB序列图像帧,采用目标检测网络在序列图像中检测人体并根据检测目标框提取人体图像得到图像序列对应的人体序列,利用人体姿态估计网络对序列人体图像的关节点热图分布进行估计并回归得到图像序列的人体关节点2D数值坐标,利用人体3D姿态重构网络将图像序列的2D人体姿态重构为人体关节点3D数值坐标,最后利用GCN的网络模型从人体图关节点3D数值坐标序列中获取人体姿态的时空关系,以实现交通环境下人体动作的识别。本发明用于捕获行人意图,可有效识别复杂交通场景下行人动作。
-
公开(公告)号:CN111899283B
公开(公告)日:2023-10-17
申请号:CN202010753190.X
申请日:2020-07-30
Applicant: 北京科技大学
IPC: G06T7/246 , G06V10/74 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/047 , G06N3/08
Abstract: 本发明提供一种视频目标跟踪方法,属于计算机视觉领域。所述方法包括:将目标图像和搜索图像同时输入层级相关性孪生网络进行特征提取,得到不同卷积层提取的卷积特征,对同一层卷积层提取的目标图像和搜索图像的卷积特征进行相关性度量,将每层的相关性通过层级拼接产生层级相关性;将层级相关性中跟踪响应最高的搜索图像的位置作为跟踪目标在搜索图像的中心位置;根据跟踪目标在搜索图像的中心位置和独立的尺度因子,确定跟踪目标在搜索图像中的位置。采用本发明,能够精确的对任意目标进行跟踪。
-
公开(公告)号:CN114463780B
公开(公告)日:2025-05-16
申请号:CN202111459545.5
申请日:2021-12-01
Applicant: 北京科技大学
Abstract: 本发明公开了一种基于视觉的多刚体行人模型姿态重建方法,包括:从事故视频中提取包含行人的图像帧;将图像帧输入3D人体形态识别模型中,提取出图像帧中行人的姿态参数、体形参数及相机参数;将提取的姿态参数、体形参数和相机参数导入SMPL参数化人体模型,生成SMPL模型的人体姿态和关节点;初始化Madymo多刚体行人模型的原始姿态和关节位置,并匹配Madymo多刚体行人模型和SMPL模型的相同位置关节点;将SMPL模型的姿态参数导入Madymo多刚体行人模型,生成带有真实行人姿态的假人模型。本发明方法可以直接从视频帧中实时生成假人模型姿态,有助于人车碰撞事故的快速重建。
-
公开(公告)号:CN111899283A
公开(公告)日:2020-11-06
申请号:CN202010753190.X
申请日:2020-07-30
Applicant: 北京科技大学
Abstract: 本发明提供一种视频目标跟踪方法,属于计算机视觉领域。所述方法包括:将目标图像和搜索图像同时输入层级相关性孪生网络进行特征提取,得到不同卷积层提取的卷积特征,对同一层卷积层提取的目标图像和搜索图像的卷积特征进行相关性度量,将每层的相关性通过层级拼接产生层级相关性;将层级相关性中跟踪响应最高的搜索图像的位置作为跟踪目标在搜索图像的中心位置;根据跟踪目标在搜索图像的中心位置和独立的尺度因子,确定跟踪目标在搜索图像中的位置。采用本发明,能够精确的对任意目标进行跟踪。
-
-
-
-