-
公开(公告)号:CN113283400B
公开(公告)日:2021-11-12
申请号:CN202110812098.0
申请日:2021-07-19
申请人: 成都考拉悠然科技有限公司
摘要: 本发明提出了一种基于选择性超图卷积网络的骨架动作识别方法;通过设计一个全新的选择性超图卷积网络,在选择性超图卷积网络中适应性地提取骨架中的多尺度信息和选择性地聚合时序关键帧特征;在选择性超图卷积网络中主要表现为:将骨架表示成超图结构来建模关节点之间的高阶关系而不破外固有的空间位置属性;采用尺度选择超图卷积来充分提取多尺度信息和选择性融合多个尺度的特征;以及采用帧选择时间卷积来代替传统的步长时间卷积,根据帧的重要性自适应地选择关键帧和过滤冗余帧。从而实现了对节点间的高阶关系的重视处理、对多尺度信息的充分融合以及在减少冗余的过程中对关键帧信息进行筛选保留,从而实现了更高效且更高精度的骨架动作识别。
-
公开(公告)号:CN113283400A
公开(公告)日:2021-08-20
申请号:CN202110812098.0
申请日:2021-07-19
申请人: 成都考拉悠然科技有限公司
摘要: 本发明提出了一种基于选择性超图卷积网络的骨架动作识别方法;通过设计一个全新的选择性超图卷积网络,在选择性超图卷积网络中适应性地提取骨架中的多尺度信息和选择性地聚合时序关键帧特征;在选择性超图卷积网络中主要表现为:将骨架表示成超图结构来建模关节点之间的高阶关系而不破外固有的空间位置属性;采用尺度选择超图卷积来充分提取多尺度信息和选择性融合多个尺度的特征;以及采用帧选择时间卷积来代替传统的步长时间卷积,根据帧的重要性自适应地选择关键帧和过滤冗余帧。从而实现了对节点间的高阶关系的重视处理、对多尺度信息的充分融合以及在减少冗余的过程中对关键帧信息进行筛选保留,从而实现了更高效且更高精度的骨架动作识别。
-
公开(公告)号:CN113255569B
公开(公告)日:2021-10-01
申请号:CN202110658986.1
申请日:2021-06-15
申请人: 成都考拉悠然科技有限公司
摘要: 本发明涉及计算机视觉领域,具体是一种基于图空洞卷积编码器解码器的3D姿态估计方法,包括如下步骤:步骤S1:选择训练数据集;步骤S2:构建图空洞卷积编码器解码器模型;步骤S3:对训练数据集进行预处理;步骤S4:对图空洞卷积编码器解码器模型进行初始化操作;步骤S5:训练图空洞卷积编码器解码器模型;步骤S6:在选取的训练数据集上验证图空洞卷积编码器解码器模型;该方法能够有效地提取多尺度上下文信息并且精确地捕获全局长范围连接,这些信息对于3D姿态估计是非常有帮助的,能够大大提高3D姿态估计的预测性能。
-
公开(公告)号:CN113255569A
公开(公告)日:2021-08-13
申请号:CN202110658986.1
申请日:2021-06-15
申请人: 成都考拉悠然科技有限公司
摘要: 本发明涉及计算机视觉领域,具体是一种基于图空洞卷积编码器解码器的3D姿态估计方法,包括如下步骤:步骤S1:选择训练数据集;步骤S2:构建图空洞卷积编码器解码器模型;步骤S3:对训练数据集进行预处理;步骤S4:对图空洞卷积编码器解码器模型进行初始化操作;步骤S5:训练图空洞卷积编码器解码器模型;步骤S6:在选取的训练数据集上验证图空洞卷积编码器解码器模型;该方法能够有效地提取多尺度上下文信息并且精确地捕获全局长范围连接,这些信息对于3D姿态估计是非常有帮助的,能够大大提高3D姿态估计的预测性能。
-
公开(公告)号:CN112036379A
公开(公告)日:2020-12-04
申请号:CN202011206214.6
申请日:2020-11-03
申请人: 成都考拉悠然科技有限公司
摘要: 本发明公开了一种基于注意力时间池化图卷积的骨架动作识别方法,属于骨架动作识别领域。本发明包括:选择数据集,并将其划分为训练集和测试集;基于训练集构建基于注意力时间池化图卷积的骨架动作识别模型;对构建的基于注意力时间池化图卷积的骨架动作识别模型进行监督式训练;利用测试集对训练好的基于注意力时间池化图卷积的骨架动作识别模型进行验证;使用验证后的基于注意力时间池化图卷积的骨架动作识别模型识别骨架动作。本发明能够更好地保留关键时序信息,并过滤掉非关键帧的冗余信息,能够增强时序特征,进而增强了骨架动作识别的效果。
-
-
-
-