-
公开(公告)号:CN105512674A
公开(公告)日:2016-04-20
申请号:CN201510831645.4
申请日:2015-11-25
Applicant: 中国科学院自动化研究所
CPC classification number: G06K9/6215 , G06N3/02
Abstract: 本发明公开了一种基于密集匹配子自适应相似性度量的RGB-D物体识别方法和装置,其中,该方法至少可以包括:提取待查询物体和参考物体的卷积神经网络特征;基于卷积神经网络特征,并融合RGB和深度信息,对参考物体和待查询物体进行密集匹配;基于密集匹配的结果,度量参考物体和所述待查询物体之间的相似性;基于参考物体和待查询物体之间的相似性,对待查询物体进行分类。通过本发明实施例,至少部分地解决了如何提高物体识别的鲁棒性的技术问题。
-
公开(公告)号:CN107066916A
公开(公告)日:2017-08-18
申请号:CN201610947960.8
申请日:2016-10-26
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了基于反卷积神经网络的场景语义分割方法,所述方法包括下述步骤:步骤S1,对场景图片用全卷积神经网络提取密集特征表达;步骤S2,利用局部敏感的反卷积神经网络并借助所述图片的局部亲和度矩阵,对步骤S1中得到的密集特征表达进行上采样学习以及物体边沿优化,得到所述图片的分数图,从而实现精细的场景语义分割。通过局部敏感的反卷积神经网络,利用局部底层信息来加强全卷积神经网络对局部边沿的敏感性,从而得到更高精度的场景分割。
-
公开(公告)号:CN107066916B
公开(公告)日:2020-02-07
申请号:CN201610947960.8
申请日:2016-10-26
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了基于反卷积神经网络的场景语义分割方法,所述方法包括下述步骤:步骤S1,对场景图片用全卷积神经网络提取密集特征表达;步骤S2,利用局部敏感的反卷积神经网络并借助所述图片的局部亲和度矩阵,对步骤S1中得到的密集特征表达进行上采样学习以及物体边沿优化,得到所述图片的分数图,从而实现精细的场景语义分割。通过局部敏感的反卷积神经网络,利用局部底层信息来加强全卷积神经网络对局部边沿的敏感性,从而得到更高精度的场景分割。
-
公开(公告)号:CN105512674B
公开(公告)日:2019-04-12
申请号:CN201510831645.4
申请日:2015-11-25
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于密集匹配子自适应相似性度量的RGB‑D物体识别方法和装置,其中,该方法至少可以包括:提取待查询物体和参考物体的卷积神经网络特征;基于卷积神经网络特征,并融合RGB和深度信息,对参考物体和待查询物体进行密集匹配;基于密集匹配的结果,度量参考物体和所述待查询物体之间的相似性;基于参考物体和待查询物体之间的相似性,对待查询物体进行分类。通过本发明实施例,至少部分地解决了如何提高物体识别的鲁棒性的技术问题。
-
-
-