-
公开(公告)号:CN120070917A
公开(公告)日:2025-05-30
申请号:CN202510043342.X
申请日:2025-01-10
Applicant: 贵州大学
Abstract: 本发明公开了一种视图自适应多目标跟踪方法,包括:获得行人目标的检测集合Dk;利用基于深度关系线索的视图类别识别方法,该方法根据检测集合Dk中每个检测目标dk的坐标,计算其所对应的两种深度关系线索的边界框面积ak和伪深度pk,得到帧fk中的边界框面积集Ak和伪深度集Pk,再通过比较Ak与Pk的离散程度,得到帧fk所对应的视图类型v;根据所获取的深度关系线索和视图类型,根据提出的自适应视图的轨迹集与检测集划分方法,对预测轨迹与检测目标进行深度区间划分并完成级联关联;采用上述方法将视频V中的所有帧序列被处理完毕,进行多目标识别跟踪。本发明具有能实现多目标跟踪,且跟踪准确性高、鲁棒性强的特点。
-
公开(公告)号:CN119888338A
公开(公告)日:2025-04-25
申请号:CN202411961583.4
申请日:2024-12-30
Applicant: 贵州大学
IPC: G06V10/764 , G06V10/25 , G06V10/774 , G06V10/766 , G06V10/82 , G06N3/0499
Abstract: 本发明公开了基于实例空间关联的人物交互检测方法,包括:数据收集;构建实例内与实例间人物交互检测网络模型,包括特征提取部分、Transformer结构部分,所述Transformer结构部分:包括编码器、实例解码器、交互解码器,所述实例解码器为多层结构,每层包括一个多头自注意力模块、一个多尺度可变注意力模块、一个前馈神经网络、边界框回归;该实例解码器能解码多尺度编码特征,生成人和物的检测结果,并用于交互识别;将图像输入训练好的实例内与实例间人物交互检测网络模型,输出人和物的边界框、物的类别与交互类别,进行人物交互关系检测。本发明具有模型泛化性好,实例检测和交互分类准确性高的特点。
-
公开(公告)号:CN119811655A
公开(公告)日:2025-04-11
申请号:CN202411605915.5
申请日:2024-11-12
Applicant: 贵州大学
IPC: G16H50/30 , G16H50/70 , G06F18/213 , G06F18/214 , G06F18/2431 , G06F18/25 , G06N3/0455
Abstract: 本发明公开了一种基于神经网络模型的可预见性行为识别方法,包括:收集可预见性行为数据集;行为识别模型构建,基于神经网络模型VideoMAE进行改进,包括编码器、解码器、掩码策略,其中所述编码器包括输入数据预处理、改进的特征提取,所述改进的特征提取,将原来的时空联合自注意力机制改为多头自注意力特征提取模块#imgabs0##imgabs1#和局部卷积注意力特征提取模块#imgabs2#共同实现特征提取,然后通过线性加权融合得到最终的行为特征F;训练行为识别模型;应用训练好的行为识别模型,进行可预见性行为识别。本发明具有识别准确率高、实时性好、鲁棒性强的特点。
-
-