-
公开(公告)号:CN114863186B
公开(公告)日:2024-10-01
申请号:CN202210622404.9
申请日:2022-06-02
Applicant: 哈尔滨理工大学
IPC: G06V10/764 , G06V10/42 , G06V10/77 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/08 , G06T17/00
Abstract: 基于双Transformer分支的三维模型分类方法,本发明涉及三维模型分类过程中,二维视图表征三维模型存在难以捕捉细节信息且分类准确率低下的问题。目前,基于视图的三维模型分类方法通常侧重于对视图采用不同的深度神经网络模型来挖掘视图间的区分性以及时序关系,这些方法都是视图级的,无法从多个视图中捕获局部细节信息,这些细微的和具有区分性的局部细节正是有效分类三维模型的关键。为此,本发明采用基于双Transformer分支的三维模型分类方法,该方法既可以有效获取三维模型的全局信息,又可以获取细粒度的局部信息,有效提高了对三维模型的表示能力。在三维模型分类时,利用训练好的基于双Transformer分支的网络模型提取三维模型特征,该网络分别提取三维模型的全局信息和局部信息,然后对两部分信息进行融合,最后通过融合特征进行分类。通过这种方式,充分表示了三维模型,提高了分类准确率。本发明应用于三维模型分类。
-
公开(公告)号:CN114863186A
公开(公告)日:2022-08-05
申请号:CN202210622404.9
申请日:2022-06-02
Applicant: 哈尔滨理工大学
Abstract: 基于双Transformer分支的三维模型分类方法,本发明涉及三维模型分类过程中,二维视图表征三维模型存在难以捕捉细节信息且分类准确率低下的问题。目前,基于视图的三维模型分类方法通常侧重于对视图采用不同的深度神经网络模型来挖掘视图间的区分性以及时序关系,这些方法都是视图级的,无法从多个视图中捕获局部细节信息,这些细微的和具有区分性的局部细节正是有效分类三维模型的关键。为此,本发明采用基于双Transformer分支的三维模型分类方法,该方法既可以有效获取三维模型的全局信息,又可以获取细粒度的局部信息,有效提高了对三维模型的表示能力。在三维模型分类时,利用训练好的基于双Transformer分支的网络模型提取三维模型特征,该网络分别提取三维模型的全局信息和局部信息,然后对两部分信息进行融合,最后通过融合特征进行分类。通过这种方式,充分表示了三维模型,提高了分类准确率。本发明应用于三维模型分类。
-