一种视图自适应多目标跟踪方法
    1.
    发明公开

    公开(公告)号:CN120070917A

    公开(公告)日:2025-05-30

    申请号:CN202510043342.X

    申请日:2025-01-10

    Applicant: 贵州大学

    Abstract: 本发明公开了一种视图自适应多目标跟踪方法,包括:获得行人目标的检测集合Dk;利用基于深度关系线索的视图类别识别方法,该方法根据检测集合Dk中每个检测目标dk的坐标,计算其所对应的两种深度关系线索的边界框面积ak和伪深度pk,得到帧fk中的边界框面积集Ak和伪深度集Pk,再通过比较Ak与Pk的离散程度,得到帧fk所对应的视图类型v;根据所获取的深度关系线索和视图类型,根据提出的自适应视图的轨迹集与检测集划分方法,对预测轨迹与检测目标进行深度区间划分并完成级联关联;采用上述方法将视频V中的所有帧序列被处理完毕,进行多目标识别跟踪。本发明具有能实现多目标跟踪,且跟踪准确性高、鲁棒性强的特点。

    基于实例空间关联的人物交互检测方法

    公开(公告)号:CN119888338A

    公开(公告)日:2025-04-25

    申请号:CN202411961583.4

    申请日:2024-12-30

    Applicant: 贵州大学

    Abstract: 本发明公开了基于实例空间关联的人物交互检测方法,包括:数据收集;构建实例内与实例间人物交互检测网络模型,包括特征提取部分、Transformer结构部分,所述Transformer结构部分:包括编码器、实例解码器、交互解码器,所述实例解码器为多层结构,每层包括一个多头自注意力模块、一个多尺度可变注意力模块、一个前馈神经网络、边界框回归;该实例解码器能解码多尺度编码特征,生成人和物的检测结果,并用于交互识别;将图像输入训练好的实例内与实例间人物交互检测网络模型,输出人和物的边界框、物的类别与交互类别,进行人物交互关系检测。本发明具有模型泛化性好,实例检测和交互分类准确性高的特点。

    一种基于神经网络模型的可预见性行为识别方法

    公开(公告)号:CN119811655A

    公开(公告)日:2025-04-11

    申请号:CN202411605915.5

    申请日:2024-11-12

    Applicant: 贵州大学

    Abstract: 本发明公开了一种基于神经网络模型的可预见性行为识别方法,包括:收集可预见性行为数据集;行为识别模型构建,基于神经网络模型VideoMAE进行改进,包括编码器、解码器、掩码策略,其中所述编码器包括输入数据预处理、改进的特征提取,所述改进的特征提取,将原来的时空联合自注意力机制改为多头自注意力特征提取模块#imgabs0##imgabs1#和局部卷积注意力特征提取模块#imgabs2#共同实现特征提取,然后通过线性加权融合得到最终的行为特征F;训练行为识别模型;应用训练好的行为识别模型,进行可预见性行为识别。本发明具有识别准确率高、实时性好、鲁棒性强的特点。

Patent Agency Ranking