-
公开(公告)号:CN112488210B
公开(公告)日:2025-01-10
申请号:CN202011398492.6
申请日:2020-12-02
Applicant: 北京工业大学
IPC: G06V10/764 , G06V10/82 , G06V20/64 , G06V20/56 , G06N3/042 , G06N3/0464 , G06N3/084 , G06N3/0985
Abstract: 一种基于图卷积神经网络的三维点云分类方法,用于服务型机器人抓取三维物体过程中对复杂的物体实现自动分类识别,便于根据类别信息确定抓取位置进行抓取。属于计算机视觉的三维感知和机器人导航技术领域。包括以下步骤:(1)对三维点云进行预处理;(2)构建点云分类网络;(3)训练所构建的网络;(4)利用训练完成的网络进行分类测试。本发明的优点在于:(1)采用图卷积神经网络进行局部特征学习,增强网络对局部拓扑结构信息的学习能力;(2)对输入的点云进行全局特征学习,增强网络对上下文语义的理解。将局部特征和全局特征相聚合,再利用全连接层输出每个点云的分类得分,相较于现有网络具有更高的分类精度。
-
公开(公告)号:CN112184731A
公开(公告)日:2021-01-05
申请号:CN202011037998.4
申请日:2020-09-28
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于对抗性训练的多视图立体深度估计方法。在对抗性训练网络中,生成网络学习图像与其对应深度图之间的映射,判别网络将学习区分深度图是来自生成模块还是基准深度。训练时,结合生成损失函数和交叉熵对抗损失函数,训练整个网络。本发明通过对抗性训练来提高多视图立体深度估计的深度学习能力,通过生成对抗网络GAN在图像深度方向收集空间和时间上的上下文信息,从而允许网络结合更多的全局信息。本发明的对抗性训练网络利用生成模块和判别模块的对抗性训练,采用梯度惩罚作为一种软约束的对抗损失函数,改进了原始生成对抗网络训练过程,显著减少了网络训练和测试期间的内存占用和运行时间,提高了多视图立体深度预测精度。
-
公开(公告)号:CN112184731B
公开(公告)日:2024-05-28
申请号:CN202011037998.4
申请日:2020-09-28
Applicant: 北京工业大学
IPC: G06T7/11 , G06T7/50 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于对抗性训练的多视图立体深度估计方法。在对抗性训练网络中,生成网络学习图像与其对应深度图之间的映射,判别网络将学习区分深度图是来自生成模块还是基准深度。训练时,结合生成损失函数和交叉熵对抗损失函数,训练整个网络。本发明通过对抗性训练来提高多视图立体深度估计的深度学习能力,通过生成对抗网络GAN在图像深度方向收集空间和时间上的上下文信息,从而允许网络结合更多的全局信息。本发明的对抗性训练网络利用生成模块和判别模块的对抗性训练,采用梯度惩罚作为一种软约束的对抗损失函数,改进了原始生成对抗网络训练过程,显著减少了网络训练和测试期间的内存占用和运行时间,提高了多视图立体深度预测精度。
-
公开(公告)号:CN112488210A
公开(公告)日:2021-03-12
申请号:CN202011398492.6
申请日:2020-12-02
Applicant: 北京工业大学
Abstract: 一种基于图卷积神经网络的三维点云分类方法,用于服务型机器人抓取三维物体过程中对复杂的物体实现自动分类识别,便于根据类别信息确定抓取位置进行抓取。属于计算机视觉的三维感知和机器人导航技术领域。包括以下步骤:(1)对三维点云进行预处理;(2)构建点云分类网络;(3)训练所构建的网络;(4)利用训练完成的网络进行分类测试。本发明的优点在于:(1)采用图卷积神经网络进行局部特征学习,增强网络对局部拓扑结构信息的学习能力;(2)对输入的点云进行全局特征学习,增强网络对上下文语义的理解。将局部特征和全局特征相聚合,再利用全连接层输出每个点云的分类得分,相较于现有网络具有更高的分类精度。
-
-
-