-
公开(公告)号:CN116503945B
公开(公告)日:2025-04-08
申请号:CN202310471308.3
申请日:2023-04-27
Applicant: 杭州电子科技大学信息工程学院 , 杭州电子科技大学
Abstract: 本发明公开了一种基于Transformer和错位对齐策略的小样本动作识别方法,包括:获取查询集视频和支持集视频;获得对应的第一图像集和第二图像集;对图像集进行采样并裁剪,裁剪后的第一图像集形成第一图像序列,每个裁剪后的第二图像集形成一个第二图像序列,将第一图像序列和一个第二图像序列视为一组;建立动作识别模型,动作识别模型包括依次连接的改进ResNet网络模型、时空特征编码器和多粒度特征对齐模块,并获取每组第一图像序列和第二图像序列对应的多粒度动作概率;采用分类器获取全部多粒度动作概率中概率最高的动作类别作为对应待识别动作类别视频的动作识别结果。该方法能够提升小样本动作视频分类的准确度和效率。
-
公开(公告)号:CN118155283A
公开(公告)日:2024-06-07
申请号:CN202410288694.7
申请日:2024-03-14
Applicant: 杭州电子科技大学 , 杭州电子科技大学信息工程学院
IPC: G06V40/20 , G06V10/46 , G06N3/0464 , G06V10/82 , G06V10/80 , G06N3/045 , G06V10/764
Abstract: 本发明公开了一种基于多中心多模态的图卷积网络的骨架动作识别方法,包括如下步骤:步骤1、获取骨架数据并进行数据预处理和数据增强;步骤2、经步骤1处理后的骨架数据的关节流态作为一阶骨骼数据;步骤3、对关节流态进行处理得到二阶骨架数据,所述二阶骨骼数据包括骨骼流态;步骤4、应用GPT‑3模型,将人体动作识别数据作为输入生成离线动作的文本描述数据;步骤5、构建并训练多中心多模态图卷积网络模型;步骤6、分别将关节流态数据、骨骼流态数据以及文本描述数据输入输出最后的预测结果。该方法方便网络在极端尺度变化下识别和检测对象,实现注意特征融合。有助于提高人体行为的预测精确度。
-
公开(公告)号:CN114821640B
公开(公告)日:2023-07-18
申请号:CN202210381360.5
申请日:2022-04-12
Applicant: 杭州电子科技大学 , 杭州电子科技大学信息工程学院
Abstract: 本发明公开了基于多流多尺度膨胀时空图卷积网络的骨架动作识别方法,包括:获取人体行为视频并预处理;从预处理后的视频中提取每帧图像的人体骨架数据形成骨架序列;填充骨架序列形成新的骨架序列;基于新的骨架序列获取每帧图像的二阶信息数据;基于二阶信息数据的类别和新的骨架序列分别对应建立训练集和标签;建立膨胀时空图卷积网络模型;将各类训练集和标签输入膨胀时空图卷积网络模型进行训练;将待识别的视频建立训练集后输入预训练好的模型,获取的融合结果即为最终预测结果。该方法可更好地获取网络不同层的语义信息,并在不增加计算量的情况下结合数量更多、特征更明显的关节数据实现人体行为预测,大大提高人体行为的预测精确度。
-
公开(公告)号:CN117110642B
公开(公告)日:2025-05-20
申请号:CN202311077473.7
申请日:2023-08-25
Applicant: 杭州电子科技大学信息工程学院 , 杭州电子科技大学
IPC: G01P3/36
Abstract: 本发明公开了一种基于双目远心镜头的玻璃平面测速方法,包括如下步骤:S1、在玻璃表面移动的方向上放置本装置,使得镜头垂直于玻璃的侧面;S2、调整镜头距离玻璃侧面的距离;S3、初始化两个相机,设定好对应的采集参数。S4、启动本装置,使得玻璃下边缘依次从上方的镜头和下方的镜头中出现。上方的镜头实时检测玻璃是否进入视野中,若进入视野中则按照固定的时间间隔,上下两个相机分别拍摄两张照片。S5、对拍摄得到的2张照片进行处理和计算,得到玻璃下边缘在图片中的位置,计算两张照片的准确时间间隔。S6、计算得到玻璃的移动距离和时间,得到玻璃移动速度。本发明具有更高的测量精度,且对环境要求更低,能维持长时间的高精度测量。
-
公开(公告)号:CN116524402A
公开(公告)日:2023-08-01
申请号:CN202310471296.4
申请日:2023-04-27
Applicant: 杭州电子科技大学信息工程学院 , 杭州电子科技大学
Abstract: 本发明公开了基于多头自注意力的多时间跨度上下文建模动作识别方法,包括:获取待识别视频并提取视频帧形成第一特征序列;对第一特征序列进行采样获得高频时间轴采样流和低频时间轴采样流;分别通过第一多时间跨度上下文聚合模块和数据增强模块对高频时间轴采样流进行特征提取,对应形成第一上下文提取特征和第一增强特征,并通过第二多时间跨度上下文聚合模块对低频时间轴采样流进行特征提取,形成第二上下文提取特征;将两个上下文提取特征进行相加平均后再与第一增强特征进行相加聚合,形成第一聚合特征;将第一聚合特征输入后处理模块获取动作识别结果。该方法能具有优秀的时序动作定位性能,动作识别准确率高。
-
公开(公告)号:CN116665300A
公开(公告)日:2023-08-29
申请号:CN202310609183.6
申请日:2023-05-29
Applicant: 杭州电子科技大学信息工程学院 , 杭州电子科技大学
IPC: G06V40/20 , G06V10/80 , G06V10/82 , G06V10/774 , G06V10/764 , G06N3/0464 , G06N3/048 , G06N3/045 , G06N3/082
Abstract: 本发明公开了一种基于时空自适应特征融合图卷积网络的骨架动作识别方法,包括如下步骤:S1、获取人体的骨架动作序列的原始数据集并进行数据预处理和数据增强;S2、对预处理和数据增强后得到的骨架数据进行处理,得到骨架数据的二阶骨骼信息;S3、将关节运动流态和骨骼运动流态整合形成肢体流;S4、构建时空自适应特征融合图卷积网络;S5、分别将关节流态、骨骼流态和肢体流数据输入到时空自适应特征融合图卷积网络中进行训练,获取对应的初始预测结果和softmax分数,最终通过权重相加的方式融合输出最后的预测结果。该方法可更充分地提取不同尺度上下文信息,结合数量更多、特征更明显的关节数据以实现人体行为预测,有助于提高人体行为的预测精确度。
-
公开(公告)号:CN114821640A
公开(公告)日:2022-07-29
申请号:CN202210381360.5
申请日:2022-04-12
Applicant: 杭州电子科技大学 , 杭州电子科技大学信息工程学院
Abstract: 本发明公开了基于多流多尺度膨胀时空图卷积网络的骨架动作识别方法,包括:获取人体行为视频并预处理;从预处理后的视频中提取每帧图像的人体骨架数据形成骨架序列;填充骨架序列形成新的骨架序列;基于新的骨架序列获取每帧图像的二阶信息数据;基于二阶信息数据的类别和新的骨架序列分别对应建立训练集和标签;建立膨胀时空图卷积网络模型;将各类训练集和标签输入膨胀时空图卷积网络模型进行训练;将待识别的视频建立训练集后输入预训练好的模型,获取的融合结果即为最终预测结果。该方法可更好地获取网络不同层的语义信息,并在不增加计算量的情况下结合数量更多、特征更明显的关节数据实现人体行为预测,大大提高人体行为的预测精确度。
-
公开(公告)号:CN117110642A
公开(公告)日:2023-11-24
申请号:CN202311077473.7
申请日:2023-08-25
Applicant: 杭州电子科技大学信息工程学院 , 杭州电子科技大学
IPC: G01P3/36
Abstract: 本发明公开了一种基于双目远心镜头的玻璃平面测速方法,包括如下步骤:S1、在玻璃表面移动的方向上放置本装置,使得镜头垂直于玻璃的侧面;S2、调整镜头距离玻璃侧面的距离;S3、初始化两个相机,设定好对应的采集参数。S4、启动本装置,使得玻璃下边缘依次从上方的镜头和下方的镜头中出现。上方的镜头实时检测玻璃是否进入视野中,若进入视野中则按照固定的时间间隔,上下两个相机分别拍摄两张照片。S5、对拍摄得到的2张照片进行处理和计算,得到玻璃下边缘在图片中的位置,计算两张照片的准确时间间隔。S6、计算得到玻璃的移动距离和时间,得到玻璃移动速度。本发明具有更高的测量精度,且对环境要求更低,能维持长时间的高精度测量。
-
公开(公告)号:CN116503945A
公开(公告)日:2023-07-28
申请号:CN202310471308.3
申请日:2023-04-27
Applicant: 杭州电子科技大学信息工程学院 , 杭州电子科技大学
Abstract: 本发明公开了一种基于Transformer和错位对齐策略的小样本动作识别方法,包括:获取查询集视频和支持集视频;获得对应的第一图像集和第二图像集;对图像集进行采样并裁剪,裁剪后的第一图像集形成第一图像序列,每个裁剪后的第二图像集形成一个第二图像序列,将第一图像序列和一个第二图像序列视为一组;建立动作识别模型,动作识别模型包括依次连接的改进ResNet网络模型、时空特征编码器和多粒度特征对齐模块,并获取每组第一图像序列和第二图像序列对应的多粒度动作概率;采用分类器获取全部多粒度动作概率中概率最高的动作类别作为对应待识别动作类别视频的动作识别结果。该方法能够提升小样本动作视频分类的准确度和效率。
-
公开(公告)号:CN114648722B
公开(公告)日:2023-07-18
申请号:CN202210362715.6
申请日:2022-04-07
Applicant: 杭州电子科技大学 , 杭州电子科技大学信息工程学院
IPC: G06V20/40 , G06V40/20 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于视频多路径时空特征网络的动作识别方法,包括:获取待识别的视频,根据帧率从视频中抽取若干张图像并对图像进行预处理;按照不同的采样率分别从预处理后的若干个图像中抽取不同数量的图像,形成多个图像序列;建立时空特征网络模型,时空特征网络模型包括多个特征提取模块,各图像序列一一对应输入至特征提取模块获取时空特征矩阵;将各特征提取模块输出的时空特征矩阵聚合,输出特征向量;利用分类器对特征向量进行分类检测,以概率最高的类别作为检测结果。该方法能够大幅提升动作视频分类的准确度,并有助于增强网络模型对动作视频的理解,显著提升鲁棒性,从而能够应对现实生活中的复杂场景。
-
-
-
-
-
-
-
-
-