-
公开(公告)号:CN116363749A
公开(公告)日:2023-06-30
申请号:CN202310242403.6
申请日:2023-03-14
Applicant: 同济大学
IPC: G06V40/20 , G06V10/74 , G06V10/764 , G06V10/766 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明提供了一种基于类别索引学习的人‑物交互分类方法,具有这样的特征,包括以下步骤:步骤S1,根据人‑物交互图像得到图像特征和人‑物交互实例特征;步骤S2,根据图像特征和类别索引得到更新后类别索引;步骤S3,根据更新后类别索引得到图像分类分数;步骤S4,根据图像分类分数得到实例分类分数;步骤S5‑S7,根据图像分类分数和实例分类分数得到人‑物交互图像的交互识别结果。总之,本方法能够提高人‑物交互分类的识别精度。
-
公开(公告)号:CN115050090A
公开(公告)日:2022-09-13
申请号:CN202210445216.3
申请日:2022-04-26
Applicant: 同济大学
Abstract: 本发明涉及一种基于结构性注意力机制的图卷积人体骨架动作识别方法,包括以下步骤:S1:构建结构性注意力模块,包含基于身体部分关系的注意力模块和基于身体对称节点轨迹的注意力模块两个子模块;S2:为图卷积的中间结果自适应邻接矩阵添加基于身体部分关系的注意力模块,得到强化身体部分结构的自适应邻接矩阵;S3:利用身体对称节点轨迹的关系构建相关注意力模块,强化人体骨架动作识别模型对身体对称性的关注;S4:将经过结构性注意力强化后的特征送入分类器,得到各动作对应的分数,从而获得最终识别结果。与现有技术相比,本发明考虑了动作识别中人体结构性的行为机制,具有识别精度高的优点。
-