-
公开(公告)号:CN116884094B
公开(公告)日:2023-12-12
申请号:CN202311149653.1
申请日:2023-09-07
Applicant: 武汉理工大学
Abstract: 特征,融合得到全局行为不变特征进行行为识本发明公开了一种基于视角和行为解耦的 别,可以提高识别精度。多视角行为识别方法及系统,所述方法包括:对相同行为的不同视角视频进行特征提取,得到不同视角的局部特征;分析每个视角的证据分布,计算每个视角的权重,融合所有视角的局部特征,得到全局特征;利用全局特征和每个视角的局部特征解耦出每个视角的特定视角特征和行为不变特征,将各个视角的行为不变特征融合,得到全局行为不变特征;基于全局行为不变特征进行行为识别,并利用损失函数分别对特定视角(56)对比文件Xian Zhong 等.VCD: VIEW-CONSTRAINTDISENTANGLEMENT FOR ACTION RECOGNITION.《2022 IEEE International Conference onAcoustics, Speech and Signal Processing(ICASSP)》.2022,1-5.
-
公开(公告)号:CN116612537B
公开(公告)日:2023-10-03
申请号:CN202310898874.2
申请日:2023-07-21
Applicant: 武汉理工大学
IPC: G06V40/20 , G06V20/40 , G06V10/774
Abstract: 本发明涉及计算机视觉技术领域,并提出了一种基于背景弱化及一致性计算的半监督动作检测方法,包括以下步骤:S1、获得训练样本;S2、使用标记数据集训练两个相同的动作检测模型a和b;S3、使用训练样本和训练样本的翻转视图输出的一致性来指导模型a和模型b的训练;S4、增加背景抑制模块用于模型a;S5、使用背景抑制后训练样本和训练样本的翻转视图输出的一致性来指导模型a的训练;S6、根据模型a和b输出的置信度和一致性,判断模型a输出是否存在错误的初始预测使得真实动作像素被覆盖,并对错误抑制进行校正约束;S7、重复步骤S2‑S6,直至模型a被充分训练;步骤S8、在模型训练过程中,通过生成伪标签的方式扩充训练样本。
-
公开(公告)号:CN110795580A
公开(公告)日:2020-02-14
申请号:CN201911012487.4
申请日:2019-10-23
Applicant: 武汉理工大学
IPC: G06F16/532 , G06F16/583 , G06F16/55 , G06K9/00 , G06K9/62 , G06N3/04
Abstract: 本发明公开了一种基于时空约束模型优化的车辆重识别方法,该方法包括以下步骤:1)获取待查询车辆图像;2)对于给定的车辆查询图像和若干张候选图片,通过车辆姿态分类器提取出车辆姿态特征并输出车辆姿态类别;3)将车辆姿态特征与车辆的细粒度身份特征融合得到车辆基于视觉信息的融合特征,并得到视觉匹配概率;4)估计车辆相对行驶方向,建立车辆时空转移模型;5)得到车辆时空匹配概率;6)基于贝叶斯概率模型,联合车辆的视觉匹配概率与时空匹配概率得到最终车辆匹配的联合概率;7)将查询车辆与所有的候选车辆匹配的联合概率按降序排列,得到车辆重识别排序表。本发明方法大幅度降低了车辆的误识率,提高了最终识别结果的准确率。
-
公开(公告)号:CN117726821B
公开(公告)日:2024-05-10
申请号:CN202410165468.X
申请日:2024-02-05
Applicant: 武汉理工大学
Abstract: 本发明提供一种面向医疗视频中区域遮挡的医护行为识别方法,涉及视频识别技术领域,包括:获取医护视频,利用预训练的检测器对医护视频进行主体检测,得到医护主体轨迹;在医护视频的第一帧中,通过约束条件在背景区域中获得伪遮挡补丁,将伪遮挡补丁粘贴至医护主体上;对于医护视频的剩余帧,根据医护主体轨迹添加时间轨迹,得到带有伪遮挡补丁的医护主体轨迹;令静态分支数据和动态分支数据进行互学习,并训练医护识别网络,得到医护识别模型;获取新的医护视频,利用医护识别模型对新的医护视频进行识别,得到医护主体及医护主体行为轨迹。本发明能够解决医护人员或患者行为主体运动时产生的区域遮挡问题。
-
公开(公告)号:CN117037287A
公开(公告)日:2023-11-10
申请号:CN202311286299.7
申请日:2023-10-08
Applicant: 武汉理工大学
Abstract: 本发明提出了一种基于3D脉冲神经网络的行为识别方法、系统及装置,包括:S1、采集视频数据集,建立3D人工神经网络;S2、将所述训练集的视频数据输入至3D人工神经网络进行训练,得到训练好的3D人工神经网络识别模型;S3、构建3D脉冲神经网络模型;S4、将所述3D人工神经网络识别模型的参数映射到3D脉冲神经网络模型上,设置缩放因子对所述3D脉冲神经网络模型进行缩放;S5、将所述测试集的视频数据输入至缩放后的3D脉冲神经网络模型进行测试,输出视频中行为的预测排序,根据所述预测排序得到视频数据的行为标签。本申请通过对视频数据进行3D特征进行提取,提高3D脉冲神经网络模型识别的准确性和可靠性。
-
公开(公告)号:CN116884094A
公开(公告)日:2023-10-13
申请号:CN202311149653.1
申请日:2023-09-07
Applicant: 武汉理工大学
Abstract: 本发明公开了一种基于视角和行为解耦的多视角行为识别方法及系统,所述方法包括:对相同行为的不同视角视频进行特征提取,得到不同视角的局部特征;分析每个视角的证据分布,计算每个视角的权重,融合所有视角的局部特征,得到全局特征;利用全局特征和每个视角的局部特征解耦出每个视角的特定视角特征和行为不变特征,将各个视角的行为不变特征融合,得到全局行为不变特征;基于全局行为不变特征进行行为识别,并利用损失函数分别对特定视角特征和行为不变特征进行约束。本发明利用证据分布重新分配不同视角的权重得到全局特征,并与每个视角解耦得到行为不变特征和特定视角特征,融合得到全局行为不变特征进行行为识别,可以提高识别精度。
-
-
-
-
-