-
公开(公告)号:CN106650744B
公开(公告)日:2019-08-09
申请号:CN201610827420.6
申请日:2016-09-16
Applicant: 北京航空航天大学
Abstract: 本发明涉及局部形状迁移指导的图像对象共分割方法,包括:输入M幅包含相同语义类别对象的图像,对每幅图像进行显著性分析,生成前背景初始分割结果;对任意两幅图像进行稠密特征点匹配;根据匹配结果,建立每一局部图像区域与来自其他图像的局部区域之间的对应关系;采用局部线性结构保持算法学习对应关系的权重;使用迭代求解算法在对应局部区域之间传递其前背景分割结果,得到最终分割结果。本发明在相同语义类别的图像对象共分割方面有良好的表现,可应用于图像内容理解,图像对象识别等领域。
-
公开(公告)号:CN106327469B
公开(公告)日:2019-06-18
申请号:CN201510368762.1
申请日:2015-06-29
Applicant: 北京航空航天大学
IPC: G06T7/10
CPC classification number: G06K9/4604 , G06K9/3233 , G06K9/48 , G06K2209/21 , G06T7/12 , G06T7/162 , G06T7/168 , G06T2207/10016
Abstract: 本发明提供一种语义标签引导的视频对象分割方法,包括:根据对象所属的语义类别标签,依次利用对象包围盒检测器和对象轮廓检测器对输入视频的每一帧进行检测,得到该输入视频每一帧的候选对象包围盒集合和候选对象轮廓集合;建立包含候选对象包围盒集合与候选对象轮廓集合的联合分配模型,求出该输入视频中所述对象对应的初始分割序列,并对该初始分割序列进行处理,估算出所述对象的形状概率分布;结合该形状概率分布,依次利用图割算法对每一个包含所述对象的序列进行优化处理,得到所述对象对应的最优分割序列。本发明的技术方案,解决了现有视频对象分割方法不精确以及无法适用于单个输入视频的语义类别对象分割的问题。
-
公开(公告)号:CN105205501B
公开(公告)日:2018-09-18
申请号:CN201510643148.1
申请日:2015-10-04
Applicant: 北京航空航天大学
IPC: G06K9/62
Abstract: 本发明是一种多分类器联合的弱标注图像对象检测方法,包括:输入M个不同标签的弱标注图像集,对其中的所有图片进行对象性分析,生成对象性区域集;对区域集生成图像特征,后对不同标签特征集分别进行聚类;根据聚类的结果,对每个聚类后区域集合训练中层区域分类器;每个分类器分别计算类别属性;输入测试图像,进行对象性分析得到区域块,生成区域特征。使用多分类器进行联合检测,判断出包含该类别对象的区域。本发明在多类别图像对象联合检测方面有良好的表现,可应用于图像对象自动标注,图像对象识别等领域。
-
公开(公告)号:CN108460768A
公开(公告)日:2018-08-28
申请号:CN201810083061.7
申请日:2018-01-29
Applicant: 北京航空航天大学
IPC: G06T7/10
Abstract: 本发明提供一种层次化时域切分的视频关注对象分割方法和装置,通过根据待处理的视频,得到帧图片序列;对帧图片序列迭代N次奇偶切分处理,获得2N个子帧序列,其中,奇偶切分处理为在每个待切分的父序列中将奇数次序的帧图片确定为奇数帧序列,将偶数次序的帧图片确定为偶数帧序列,2N个子帧序列为迭代第N次奇偶切分处理中得到的奇数帧序列和偶数帧序列,N为大于或等于1的整数;根据2N个子帧序列,获得2N-1个共分割序列对,每个共分割序列对包含2个子帧序列;根据预设的共分割模型和共分割序列对,得到每个帧图片中针对关注对象的分割图,实现自动对视频的层次化切分处理,以及对关注对象快速分割。
-
公开(公告)号:CN108319985A
公开(公告)日:2018-07-24
申请号:CN201810124143.1
申请日:2018-02-07
Applicant: 北京航空航天大学
IPC: G06K9/62
Abstract: 本发明提供一种图像语义标注的方法和装置,该方法包括:对第一待标注图像进行似物性采样处理,得到多个区域以及每个区域的似物性采样特征;对第一待标注图像进行超像素分割,得到与多个区域对应的多个第一超像素块;根据第一待标注图像的强弱字典和每个区域的似物性采样特征,获取各区域为目标对象的概率值;根据每个区域对应的第一超像素块及每个区域属于目标对象的概率值,获取第一待标注图像中每个第一超像素块属于目标对象的概率值;根据每个第一超像素块属于目标对象的概率值以及第一语义标签,对第一超像素块进行语义标注。本发明实现了图像的像素级自动化语义标注,提高了图像语义标注的效率。
-
公开(公告)号:CN105354826B
公开(公告)日:2017-12-15
申请号:CN201510643147.7
申请日:2015-10-04
Applicant: 北京航空航天大学
Abstract: 本发明涉及一种图像对象共定位及无关样本判定方法,包括以下步骤:输入可能包含同一类物体的图片集,对给定的图片集进行对象性分析,生成对象区域集合;对于区域集合高层语义特征;生成区域特征后,对特征矩阵进行分析,构建全连接的图结构关系;构建比率能量函数对连通图进行统筹规划,构建优化方程,并将每张图片的区域得分限制在0到1之间;利用牛顿迭代法计算优化方程的全局最优解,得到每一张图片的每一个区域的最终得分;根据划分阈值,将区域集合总得分小于阈值的图片作为无关样本排除;选取每张图片的得分最高的区域作为最终的共定位结果。本发明在多类别图像对象协同检测方面有良好的表现,可应用于图像数据库管理,图像对象识别等领域。
-
公开(公告)号:CN104899883B
公开(公告)日:2017-10-20
申请号:CN201510288956.0
申请日:2015-05-29
Applicant: 北京航空航天大学
IPC: G06T7/593
Abstract: 本发明涉及一种深度图像场景的室内对象立方体检测方法,首先通过求解一系列参数约束最小割问题,得到输入场景中对象的候选分割结果集合,并分别拟合立方体;其次,针对每一个对象分割结果及对应的立方体,使用描述对象统计特性与物理特征的二维图像特征以及三维几何特征衡量其与输入场景的拟合程度;最后,构建立方体的图结构,将场景的几何解析问题转化为最大权重子团求解问题,使用极大子团近似求解,得到一系列经过排序的场景内容几何解析结果,采用最大边缘相关度对解析结果重排序,提高相邻解析结果的多样性。本发明可广泛应用于机器人、监控等计算机视觉系统的室内场景对象解析、场景理解和三维重建。
-
公开(公告)号:CN106875406A
公开(公告)日:2017-06-20
申请号:CN201710060268.8
申请日:2017-01-24
Applicant: 北京航空航天大学
Abstract: 本发明涉及一种图像引导的视频语义对象分割方法及装置,根据给定语义类别,在样本图像中定位目标对象,得到对象样例;对输入视频中每帧图像进行候选区域的提取;根据对象样例,将每帧中所提取的多个候选区域与对象样例进行匹配,得到每个候选区域的相似度分数;对每帧中各个候选区域的相似度分数进行排序,选出满足预设候选区域个数的、相似度分数由高到低的高分候选区域;对选出的高分候选区域进行前景与背景的初始分割处理;基于初始分割后前景与背景的一致性和无二义性约束条件,对初始分割处理后的候选区域构建优化函数,求解优化函数得到最优候选区域集合;将最优候选区域对应的初始前景分割传播到整个视频,得到输入视频的语义对象分割。
-
公开(公告)号:CN106650744A
公开(公告)日:2017-05-10
申请号:CN201610827420.6
申请日:2016-09-16
Applicant: 北京航空航天大学
CPC classification number: G06K9/4671 , G06T2207/10004 , G06T2207/20016 , G06T2207/20081
Abstract: 本发明涉及局部形状迁移指导的图像对象共分割方法,包括:输入M幅包含相同语义类别对象的图像,对每幅图像进行显著性分析,生成前背景初始分割结果;对任意两幅图像进行稠密特征点匹配;根据匹配结果,建立每一局部图像区域与来自其他图像的局部区域之间的对应关系;采用局部线性结构保持算法学习对应关系的权重;使用迭代求解算法在对应局部区域之间传递其前背景分割结果,得到最终分割结果。本发明在相同语义类别的图像对象共分割方面有良好的表现,可应用于图像内容理解,图像对象识别等领域。
-
公开(公告)号:CN106529419A
公开(公告)日:2017-03-22
申请号:CN201610915190.9
申请日:2016-10-20
Applicant: 北京航空航天大学
CPC classification number: G06K9/00744 , G06K9/6256
Abstract: 本发明提供了视频显著性堆栈式聚合的对象自动检测方法。对于视频中显著性对象的检测,本发明从像素、超像素和对象三个级别分别提取空域和时域显著性特征描述子,再利用这些显著性特征描述子通过无监督学习的方法训练一个堆栈式自动编码器。这一自动编码器能够对视频图像中的像素点提取的显著特征描述子进行自主编码学习,从而可以结合视频像素点的显著特征描述子检测视频中的显著对象。一方面,本发明提供的系统可以有效地检测视频中的显著性对象,另一方面,本发明也提供了一种视频显著性对象的参考方法。
-
-
-
-
-
-
-
-
-