-
公开(公告)号:CN113435293B
公开(公告)日:2022-04-05
申请号:CN202110694968.9
申请日:2021-06-23
Applicant: 同济大学
IPC: G06V40/10 , G06V10/774 , G06K9/62 , G06N3/04
Abstract: 本发明涉及一种基于关节关系的人体姿态估计方法,包括以下步骤:S1:构建关节关系模块,包含基于通道的特征关系模块和邻接关节空间关系模块两个子模块;S2:构建基于关节关系的人体姿态估计模型;S3:利用标注的人体姿态数据训练基于关节关系的人体姿态估计模型;S4:利用训练完成的添加关节关系模块的人体姿态估计模型进行基于单张图像的人体姿态估计任务,获取预测的人体姿态。与现有技术相比,本发明有效克服图像中自由度较高的四肢关节如腕关节、踝关节及被遮挡的不可见关节位置难以检测的问题,人体姿态估计准确性高。
-
公开(公告)号:CN113435293A
公开(公告)日:2021-09-24
申请号:CN202110694968.9
申请日:2021-06-23
Applicant: 同济大学
Abstract: 本发明涉及一种基于关节关系的人体姿态估计方法,包括以下步骤:S1:构建关节关系模块,包含基于通道的特征关系模块和邻接关节空间关系模块两个子模块;S2:构建基于关节关系的人体姿态估计模型;S3:利用标注的人体姿态数据训练基于关节关系的人体姿态估计模型;S4:利用训练完成的添加关节关系模块的人体姿态估计模型进行基于单张图像的人体姿态估计任务,获取预测的人体姿态。与现有技术相比,本发明有效克服图像中自由度较高的四肢关节如腕关节、踝关节及被遮挡的不可见关节位置难以检测的问题,人体姿态估计准确性高。
-
公开(公告)号:CN112329571A
公开(公告)日:2021-02-05
申请号:CN202011161979.2
申请日:2020-10-27
Applicant: 同济大学
Abstract: 本发明涉及一种基于姿态质量评估的自适应人体姿态优化方法,包括以下步骤:S1:获取人体姿态优化训练数据和已有姿态质量评估训练数据;S2:利用姿态质量评估训练数据训练人体姿态质量评估网络,得到用于衡量已有人体姿态质量评估模型;S3:利用人体姿态优化训练数据训练人体姿态优化网络,得到人体姿态优化模型;S4:获取已有人体姿态,根据人体姿态质量评估模型的评估结果,利用人体姿态优化模型对质量不达标的已有人体姿态通过迭代进行姿态优化,直至优化后的人体姿态质量达标,输出该优化的人体姿态,与现有技术相比,本发明具有有效克服所获取的人体姿态质量差异性问题等优点。
-
公开(公告)号:CN115050090A
公开(公告)日:2022-09-13
申请号:CN202210445216.3
申请日:2022-04-26
Applicant: 同济大学
Abstract: 本发明涉及一种基于结构性注意力机制的图卷积人体骨架动作识别方法,包括以下步骤:S1:构建结构性注意力模块,包含基于身体部分关系的注意力模块和基于身体对称节点轨迹的注意力模块两个子模块;S2:为图卷积的中间结果自适应邻接矩阵添加基于身体部分关系的注意力模块,得到强化身体部分结构的自适应邻接矩阵;S3:利用身体对称节点轨迹的关系构建相关注意力模块,强化人体骨架动作识别模型对身体对称性的关注;S4:将经过结构性注意力强化后的特征送入分类器,得到各动作对应的分数,从而获得最终识别结果。与现有技术相比,本发明考虑了动作识别中人体结构性的行为机制,具有识别精度高的优点。
-
公开(公告)号:CN114724181A
公开(公告)日:2022-07-08
申请号:CN202210292119.5
申请日:2022-03-24
Applicant: 同济大学
Abstract: 本发明公开了一种基于姿态增强型关系特征的人体动作识别方法,包括以下步骤:S1:获取人体姿态关键点数据和周围物体包围框,并将姿态关键点数据转换为包围框格式;S2:使用基础网络提取图像特征,并通过ROIPooling进一步得到人体、姿态、物体对应的基础特征;S3:利用基础特征与包围框分别计算出2组人体‑姿态关系特征与2组人体‑物体关系特征,将关系特征按特定权重与基础特征融合,获得人体、姿态、物体增强型特征;S4:将三种增强型特征送入分类器,并将分类结果进行融合,得到各动作对应的分数,从而获得最终识别结果,与现有技术相比,本发明考虑了动作识别中的不同情况,具有识别精度高、适用范围广等优点。
-
公开(公告)号:CN116469170A
公开(公告)日:2023-07-21
申请号:CN202310441871.6
申请日:2023-04-23
Applicant: 同济大学
IPC: G06V40/20 , G06V10/774 , G06V10/82 , G06V10/764 , G06N3/0464 , G06N3/0499 , G06N3/08
Abstract: 本发明提供了一种基于重组样本学习的人‑物交互动作识别方法,具有这样的特征,包括以下步骤:步骤S1,将待识别图像进行特征提取和编码,得到全局特征向量和位置编码向量;步骤S2,将全局特征向量、位置编码向量和查询向量组输入人‑物对解码器,得到人‑物对特征向量组;步骤S3,将全局特征向量、位置编码向量和人‑物对特征向量组输入交互动作解码器,得到交互动作特征向量组;步骤S4,将人‑物对特征向量组和交互动作特征向量组输入前馈神经网络,得到人‑物对预测和交互动作预测;步骤S5,根据人‑物对预测、交互动作预测和Ni类人‑物交互,得到识别结果。总之,本方法能够提高人‑物交互动作识别的精度。
-
公开(公告)号:CN116363749A
公开(公告)日:2023-06-30
申请号:CN202310242403.6
申请日:2023-03-14
Applicant: 同济大学
IPC: G06V40/20 , G06V10/74 , G06V10/764 , G06V10/766 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明提供了一种基于类别索引学习的人‑物交互分类方法,具有这样的特征,包括以下步骤:步骤S1,根据人‑物交互图像得到图像特征和人‑物交互实例特征;步骤S2,根据图像特征和类别索引得到更新后类别索引;步骤S3,根据更新后类别索引得到图像分类分数;步骤S4,根据图像分类分数得到实例分类分数;步骤S5‑S7,根据图像分类分数和实例分类分数得到人‑物交互图像的交互识别结果。总之,本方法能够提高人‑物交互分类的识别精度。
-
公开(公告)号:CN112329571B
公开(公告)日:2022-12-16
申请号:CN202011161979.2
申请日:2020-10-27
Applicant: 同济大学
IPC: G06V40/20 , G06V10/774 , G06V10/764
Abstract: 本发明涉及一种基于姿态质量评估的自适应人体姿态优化方法,包括以下步骤:S1:获取人体姿态优化训练数据和已有姿态质量评估训练数据;S2:利用姿态质量评估训练数据训练人体姿态质量评估网络,得到用于衡量已有人体姿态质量评估模型;S3:利用人体姿态优化训练数据训练人体姿态优化网络,得到人体姿态优化模型;S4:获取已有人体姿态,根据人体姿态质量评估模型的评估结果,利用人体姿态优化模型对质量不达标的已有人体姿态通过迭代进行姿态优化,直至优化后的人体姿态质量达标,输出该优化的人体姿态,与现有技术相比,本发明具有有效克服所获取的人体姿态质量差异性问题等优点。
-
公开(公告)号:CN116229104A
公开(公告)日:2023-06-06
申请号:CN202310373810.0
申请日:2023-04-06
Applicant: 同济大学
IPC: G06V10/44 , G06V10/774 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本申请实施例涉及显著性目标检测技术领域,特别涉及一种基于边缘特征引导的显著性目标检测方法,包括:从显著对象真值图中提取显著对象的边缘数据,并将边缘数据作为额外的预备训练集;采用基础网络提取图像特征,并基于图像特征,分别得到显著性对象的边缘特征、多尺度的位置特征;基于多层感知机,对边缘特征与多尺度的位置特征的关系动态学习,得到边缘增强融合特征;将边缘增强融合特征送入卷积网络进行细化处理,并基于细化后的边缘增强融合特征,得到最终分割结果。本申请提供的方法,通过有效利用显著对象边缘信息和位置信息,克服现有显著性目标检测方法对于边缘信息的利用不充分且对边缘位置特征和全局特征间的联系欠缺考虑的缺陷。
-
公开(公告)号:CN116071820A
公开(公告)日:2023-05-05
申请号:CN202211718305.7
申请日:2022-12-29
Applicant: 同济大学
IPC: G06V40/20 , G06V20/40 , G06V10/764 , G06V10/82 , G06N3/0895
Abstract: 本发明涉及一种基于自适应时序dropout机制的弱监督动作检测方法,该方法通过一分类网络获得候选动作实例,分类网络的处理过程:对待检测视频进行特征提取;将RGB特征和光流特征融合并映射至动作特征空间;将动作特征序列映射至分类空间,得到类别激活序列;对类别激活序列进行后处理以获得候选动作实例;对所述分类网络进行训练时,通过一自适应时序dropout模块从与动作特征序列中选取显著部分并去除,进而获得对应的类别激活序列,采用基于多实例学习的损失函数进行优化训练。与现有技术相比,本发明以端到端、数据驱动的方式解决了弱监督动作检测中的“局部统治”问题,具有流程简单、识别精度高、适用范围广等优点。
-
-
-
-
-
-
-
-
-