-
公开(公告)号:CN114926859B
公开(公告)日:2024-09-03
申请号:CN202210513751.8
申请日:2022-05-12
Applicant: 天津理工大学
IPC: G06V40/10 , G06V40/20 , G06V10/80 , G06V20/52 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 一种结合头部跟踪的密集场景下行人多目标跟踪方法。为减小密集场景中严重的遮挡现象给跟踪器带来性能下降的负面影响,考虑到头部是行人整个身体最高最不易被遮挡的部位,本发明设计了一种新型的结合头部跟踪的行人多目标跟踪方法。首先,使用头部跟踪器生成行人头部运动轨迹,同时检测出行人的全身边界框;其次计算头部边界框和全身边界框之间的关联程度,使用匈牙利算法对上述计算结果进行匹配;最后根据匹配结果将头部轨迹中头部边界框替换为全身边界框,并输出密集场景下行人全身的运动轨迹。实验证明,本发明有效降低了密集场景下严重遮挡为跟踪器带来的漏报和误报等负面影响。
-
公开(公告)号:CN114255497B
公开(公告)日:2024-09-24
申请号:CN202111487467.X
申请日:2021-12-07
Applicant: 天津理工大学
IPC: G06V40/16 , G06V10/82 , G06N3/0475 , G06N3/045 , G06N3/094
Abstract: 一种基于生成对抗网络的人脸图像样本扩充方法。本发明提出一种用于扩充人脸图像样本的方法,解决特定环境下一些遮挡物造成人脸无法得到有效检测的问题。使用该方法生成人脸图像在图像质量与图像丰富程度都有很好的表现,能够对人脸图像样本数据进行有效扩充。通过数据集图像样本扩充使检测模型对遮挡人脸的检测精度提高3%以上,一定程度上提高人脸检测算法能力。既能有效扩充人脸数据样本,提高人脸检测算法能力,又能减少获取训练使用人脸图像的人力物力和时间。
-
公开(公告)号:CN116958123A
公开(公告)日:2023-10-27
申请号:CN202311079921.7
申请日:2023-08-25
Applicant: 天津理工大学
IPC: G06T7/00 , G06V10/40 , G06V10/764 , G06V10/80
Abstract: 一种结合融合攻击的图像防御模型健壮度检测方法。为了方便评估图像防御模型面对来自恶意的对抗攻击时的健壮度,考虑到将多种攻击方法集合使用能大幅提高攻击的可迁移性,本发明设计了一种新型的融合攻击健壮度检测方法。首先,使用图像高频部分和原始图像生成融合图像,同时利用该图像初始化攻击起点方向;其次计算原始图像在目标模型下的梯度方向,使用动量迭代快速梯度符号方法以非目标攻击方式生成对抗样本;最后以动态的丢弃率丢弃始终无法攻击成功的对抗样本;最终攻击迭代次数用尽后防御模型的判别准确率即为其健壮度。实验证明,本发明通过相同固定的攻击轮次能够检测出不同对抗攻击防御模型的鲁棒性下限,揭露出模型面对的潜在风险。
-
公开(公告)号:CN116563749A
公开(公告)日:2023-08-08
申请号:CN202310412098.0
申请日:2023-04-18
Applicant: 山东省人工智能研究院 , 天津理工大学
Abstract: 本发明提供了一种基于时空信息和视频上下文信息挖掘的视频动作检测方法,属于计算机视觉和模式识别技术领域,准确地实现了对视频中动作实例的定位和分类;该发明方法的具体步骤如下:(1)视频特征提取;(2)基于时空信息和视频上下文信息挖掘的视频动作检测方法的网络模型搭建;(3)基于时空信息和视频上下文信息挖掘的视频动作检测方法的目标函数构建;(4)基于时空信息和视频上下文信息挖掘的视频动作检测方法;本发明基于已知数据集对视频中的动作实例进行高效定位和分类,并且方法收敛速度快。
-
公开(公告)号:CN115497122A
公开(公告)日:2022-12-20
申请号:CN202211171521.4
申请日:2022-09-26
Applicant: 天津理工大学
IPC: G06V40/10 , G06V10/20 , G06V10/774 , G06V10/40 , G06V10/46 , G06V10/75 , G06V10/74 , G06V10/80 , G06V10/82 , G06V10/764 , G06N3/08
Abstract: 本发明属于计算机视觉和模式识别技术领域,涉及一种遮挡行人重识别方法、装置、设备和计算机可存储介质。遮挡行人重识别方法的具体步骤如下:(1)进行数据准备:(2)引入遮挡信息进行并进行图像预处理;(3)网络模型搭建;(4)关键点‑局部语义特征相似度匹配;(5)网络的目标函数构建;(6)基于遮挡信息辅助与关键点增强的遮挡行人重识别。此外,还提出了配套的装置、设备和计算机可存储介质。本发明可对现有公开有遮挡的行人重识别数据集进行高效识别和检索,能够有效地解决目标数据集由于遮挡、姿态变化造成的行人信息缺失、特征对齐困难等问题,并且方法收敛速度快。本发明尤适用于公共安全领域。
-
公开(公告)号:CN115439791A
公开(公告)日:2022-12-06
申请号:CN202211171602.4
申请日:2022-09-26
Applicant: 天津理工大学
IPC: G06V20/40 , G06V10/764 , G06V10/774 , G06V10/80
Abstract: 本发明属于计算机视觉和模式识别技术领域,涉及基于重采样和特征加权的无监督的,一种跨域视频动作识别方法。包括以下步骤:源域样本重采样、视频预处理、特征提取、构建运动激励模块、构建特征融合模块、构建中间域加权模块、构建分类模块、构建域对比学习模块。可以在目标域没有样本标签的情况下,有效减小模型在多个数据集上泛化能力不足的问题,提高模型的可迁移性,解决了不同数据集之间数据分布不一致的问题,并且解决了目标数据集训练数据集无标签的情况下的跨域动作识别问题,通过使用源域数据集的信息和目标域无标签训练集的信息,实现了对目标域测试集的准确识别。本发明尤适用于公共安全领域。
-
公开(公告)号:CN113469260B
公开(公告)日:2022-10-04
申请号:CN202110785560.2
申请日:2021-07-12
Applicant: 天津理工大学
Abstract: 一种基于卷积神经网络、注意力机制及自注意力变换器的视觉描述方法。涉及图像处理、计算机视觉及自然语言处理等领域,本方法研究基于跨场景的图像描述方法中文本语意连续性交较差,场景描述精度较低的问题以及该方法在视觉描述中的应用。本方法提出了一个高效的图像特征注意力网络,即AMNet,直接使用ResNet作为骨干网,使用其全连接层特征。对于图像特征应用了我们的图像特征注意力结构,通过将图像特征拆分为16个子特征,使用改进的循环神经网络在提高精度的同时保留有效前序特征,以解决语意连续性交较差,场景描述精度较低的问题。
-
公开(公告)号:CN114926859A
公开(公告)日:2022-08-19
申请号:CN202210513751.8
申请日:2022-05-12
Applicant: 天津理工大学
Abstract: 一种结合头部跟踪的密集场景下行人多目标跟踪方法。为减小密集场景中严重的遮挡现象给跟踪器带来性能下降的负面影响,考虑到头部是行人整个身体最高最不易被遮挡的部位,本发明设计了一种新型的结合头部跟踪的行人多目标跟踪方法。首先,使用头部跟踪器生成行人头部运动轨迹,同时检测出行人的全身边界框;其次计算头部边界框和全身边界框之间的关联程度,使用匈牙利算法对上述计算结果进行匹配;最后根据匹配结果将头部轨迹中头部边界框替换为全身边界框,并输出密集场景下行人全身的运动轨迹。实验证明,本发明有效降低了密集场景下严重遮挡为跟踪器带来的漏报和误报等负面影响。
-
公开(公告)号:CN118644848A
公开(公告)日:2024-09-13
申请号:CN202410668633.3
申请日:2024-05-28
Applicant: 天津理工大学
Abstract: 本发明涉及一种面向自动驾驶的基于BEV表征的纯视觉三维目标检测方法,属于计算机视觉技术领域,方法包括:从环视图像中获取图像特征;预测图像特征的高度分布;对图像特征进行语义分割;根据高度和语义信息将图像特征投影到预定义好的三维空间得到三维采样点的特征;将三维采样点的特征压缩到bev层面进行特征融合;定义三维目标检测的任务头,构建整体的三维目标检测模型;使用检测模型对新的输入数据进行三维目标检测,识别场景中物体的类别,确定物体的精确位置、方向、尺寸和速度;本发明实现二维图像特征和三维采样点位置更准确的对应关系,可以获得更准确的三维特征;过滤掉大量无用的的背景特征,可以提高检测的准确度和效率。
-
公开(公告)号:CN116385945A
公开(公告)日:2023-07-04
申请号:CN202310657865.4
申请日:2023-06-06
Applicant: 山东省人工智能研究院 , 天津理工大学 , 山东中联视听信息科技股份有限公司
IPC: G06V20/40 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0442 , G06N3/0464 , G06N3/08
Abstract: 本发明属于计算机视觉和模式识别技术领域,尤其涉及一种基于随机帧补帧和注意力的视频交互动作检测方法及系统,方法的具体步骤如下:(1)特征提取网络的选择;(2)自注意力全局信息建模;(3)随机帧补帧数据增强;(4)金字塔特征的生成;(5)边界定位与分类。本发明能够同时聚合全局时序与多尺度的局部时序信息,通过产生的金字塔特征进行高效的动作定位。应用基于随机帧补帧进行数据增强,通过LSTM+Transformer的结合来解决单个模型在不同大小数据集上性能表现不同的问题,以获得更精确的动作定位与分类结果。
-
-
-
-
-
-
-
-
-