-
公开(公告)号:CN119763189A
公开(公告)日:2025-04-04
申请号:CN202411829878.6
申请日:2024-12-12
Applicant: 重庆邮电大学
IPC: G06V40/20 , G06V10/44 , G06V10/52 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464
Abstract: 本发明公开了一种基于语义增强和多尺度特征融合的人体姿态估计方法。所述方法包括以下步骤:在MobileNetV2网络的基础上构建特征金字塔,统一不同尺度特征的分辨率并拼接;将拼接之后的特征输入到基于EfficientVit的尺度感知语义模块,生成尺度感知的全局语义表示;构建深层语义注入模块,将尺度感知的全局语义与对应的特征进行融合,采用上下文指导的注意力机制选择性强化相关特征;自适应多尺度特征融合,网络能够自适应地调整感受野大小,以更好地捕捉不同尺度的人体关键点特征,同时提高深浅层特征的利用率;使用1×1卷积层构建关键点检测头得到最终的关键点热图输出。本发明的模型能更好地感知人体姿态的语义特征和多尺度视觉线索,从而显著提升模型的泛化能力。