基于密集匹配子自适应相似性度量的RGB-D物体识别方法和装置

    公开(公告)号:CN105512674A

    公开(公告)日:2016-04-20

    申请号:CN201510831645.4

    申请日:2015-11-25

    CPC classification number: G06K9/6215 G06N3/02

    Abstract: 本发明公开了一种基于密集匹配子自适应相似性度量的RGB-D物体识别方法和装置,其中,该方法至少可以包括:提取待查询物体和参考物体的卷积神经网络特征;基于卷积神经网络特征,并融合RGB和深度信息,对参考物体和待查询物体进行密集匹配;基于密集匹配的结果,度量参考物体和所述待查询物体之间的相似性;基于参考物体和待查询物体之间的相似性,对待查询物体进行分类。通过本发明实施例,至少部分地解决了如何提高物体识别的鲁棒性的技术问题。

    基于反卷积神经网络的场景语义分割方法

    公开(公告)号:CN107066916A

    公开(公告)日:2017-08-18

    申请号:CN201610947960.8

    申请日:2016-10-26

    Abstract: 本发明公开了基于反卷积神经网络的场景语义分割方法,所述方法包括下述步骤:步骤S1,对场景图片用全卷积神经网络提取密集特征表达;步骤S2,利用局部敏感的反卷积神经网络并借助所述图片的局部亲和度矩阵,对步骤S1中得到的密集特征表达进行上采样学习以及物体边沿优化,得到所述图片的分数图,从而实现精细的场景语义分割。通过局部敏感的反卷积神经网络,利用局部底层信息来加强全卷积神经网络对局部边沿的敏感性,从而得到更高精度的场景分割。

    基于反卷积神经网络的场景语义分割方法

    公开(公告)号:CN107066916B

    公开(公告)日:2020-02-07

    申请号:CN201610947960.8

    申请日:2016-10-26

    Abstract: 本发明公开了基于反卷积神经网络的场景语义分割方法,所述方法包括下述步骤:步骤S1,对场景图片用全卷积神经网络提取密集特征表达;步骤S2,利用局部敏感的反卷积神经网络并借助所述图片的局部亲和度矩阵,对步骤S1中得到的密集特征表达进行上采样学习以及物体边沿优化,得到所述图片的分数图,从而实现精细的场景语义分割。通过局部敏感的反卷积神经网络,利用局部底层信息来加强全卷积神经网络对局部边沿的敏感性,从而得到更高精度的场景分割。

    基于密集匹配子自适应相似性度量的RGB-D物体识别方法和装置

    公开(公告)号:CN105512674B

    公开(公告)日:2019-04-12

    申请号:CN201510831645.4

    申请日:2015-11-25

    Abstract: 本发明公开了一种基于密集匹配子自适应相似性度量的RGB‑D物体识别方法和装置,其中,该方法至少可以包括:提取待查询物体和参考物体的卷积神经网络特征;基于卷积神经网络特征,并融合RGB和深度信息,对参考物体和待查询物体进行密集匹配;基于密集匹配的结果,度量参考物体和所述待查询物体之间的相似性;基于参考物体和待查询物体之间的相似性,对待查询物体进行分类。通过本发明实施例,至少部分地解决了如何提高物体识别的鲁棒性的技术问题。

Patent Agency Ranking