-
公开(公告)号:CN113378829A
公开(公告)日:2021-09-10
申请号:CN202011481683.9
申请日:2020-12-15
Applicant: 浙江大学
Abstract: 本发明公开了一种基于正负样本均衡的弱监督目标检测方法。采集需要进行目标检测的场景图像,场景图像对应有标签,主要由场景图像和对应的标签组成训练集;将训练集输入筛选目标候选框模块,筛选目标候选框模块输出场景图像对应的初始目标候选框;建立弱监督目标检测网络,将训练集和对应的初始目标候选框同时输入弱监督目标检测网络中进行训练,训练过程中,获得训练后的弱监督目标检测网络;将待测场景图像分别输入到筛选目标候选框模块和训练后的弱监督目标检测网络中,对待测场景图像的目标进行分类与定位。本发明只需要含有图像所对应的图像级类别标签数据集,在无目标框级别标签存在的情况下有较好的目标检测能力。
-
公开(公告)号:CN108875819B
公开(公告)日:2020-10-27
申请号:CN201810584336.5
申请日:2018-06-08
Applicant: 浙江大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于长短期记忆网络的物体和部件联合检测方法。采集多幅已知物体和部件目标框标签的图像,对图像I进行处理获得特征图,再在特征图基础上获取物体、部件候选区域集合及其对应的区域特征;构建基于长短期记忆网络的物体和部件联合检测网络,将物体和部件的候选区域集合及其区域特征输入到物体和部件联合检测网络中,利用带动量的SGD算法训练物体和部件联合检测网络;采用训练后的物体和部件联合检测网络对未知物体和部件目标框标签的待测图像进行处理获取物体和部件的检测结果。本发明和以往独立的目标检测或者部件检测相比,能够利用目标和部件之间的关系同时提高目标和部件检测的性能。
-
公开(公告)号:CN104951554B
公开(公告)日:2018-03-06
申请号:CN201510376739.7
申请日:2015-06-29
Applicant: 浙江大学
Abstract: 本发明公开了一种为风景照配上符合其意境的诗句的方法。该方法包括:根据识别物体的差异,把用户输入的同一张风景照分别输入到三种不同的分类器中;紧接着得到一组标签,并且根据分类结果的置信度对这些标签进行排序,排序靠前的标签,在搜索诗句时会优先满足;然后每个标签在映射表中查找关键字,接着利用关键字在搜索引擎中进行诗句搜索;最后对搜索到的诗句进行标签过滤,把意境相反的诗句给过滤掉,再用LDA进行主题加权,把主题最符合风景照意境的诗句输出到图像上。本发明结合了图像处理和自然语言处理这两个领域的先进技术,与以往的方法相比能够得到更符合风景照意境的诗句。
-
公开(公告)号:CN107563412A
公开(公告)日:2018-01-09
申请号:CN201710676658.8
申请日:2017-08-09
Applicant: 浙江大学
Abstract: 本发明公开了一种基于深度学习的红外图像电力设备实时检测方法。采集多幅包含已知电力设备的红外图像,每幅红外图像均已标示目标框,目标框是含有单个已知电力设备的图像区域,每幅红外图像均具有设备级标签;将红外图像及其对应的设备级标签输入到电力设备检测神经网络中,利用带动量的SGD算法训练电力设备检测神经网络;采用训练后的电力设备检测神经网络对未知待测图像进行处理,获得未知待测图像中电力设备的位置和种类的检测结果。本发明方法和传统的红外图像电力设备检测方法相比,得到了更好的性能,同时能够达到实时的处理速度。
-
公开(公告)号:CN107203781A
公开(公告)日:2017-09-26
申请号:CN201710364115.2
申请日:2017-05-22
Applicant: 浙江大学
Abstract: 本发明公开了一种基于显著性指导的端到端的弱监督目标检测方法。此方法构造一个深度神经网络,在弱监督分类器网络的基础上增加目标框的显著性子网络;同时利用弱监督方法训练得到的类别相关的显著图,用上下文差异的准则选取类别相关的种子目标区域,用来监督训练显著性子网络和分类器子网络。本方法与以往的弱监督目标检测方法相比,得到了更好的性能,同时只需要图像级标签进行训练,减少了标注训练数据的工作量。
-
公开(公告)号:CN105894502A
公开(公告)日:2016-08-24
申请号:CN201610191893.1
申请日:2016-03-30
Applicant: 浙江大学
IPC: G06T7/00
Abstract: 本发明公开了一种基于超图模型的RGBD图像显著性检测方法,该方法包括:对待检测彩色图像和深度图像进行超像素分割,对深度图像的每一个超像素区域进行邻域深度对比图的计算,依据邻域深度对比值构建深度背景超边;提取位于图像边界的超像素区域构建边界背景超边;计算两个超边的权重,并根据超图学习算法进行超边展开,构建诱导图;基于诱导图的空间邻接关系和边权重,利用边界连通性先验计算边界背景显著图;采用基于元胞自动机的显著度更新算法和结合深度先验的融合算法得到最终的显著性检测图。本发明弥补了传统2D边界背景先验中的不足,利用深度信息和超图模型进行改进,与以往结合彩色和深度信息的图像显著性检测方法相比取得了更好的效果。
-
-
公开(公告)号:CN104599275A
公开(公告)日:2015-05-06
申请号:CN201510039559.X
申请日:2015-01-27
Applicant: 浙江大学
CPC classification number: Y02D10/45 , G06K9/6223 , G06K9/4671
Abstract: 本发明公开了一种基于概率图模型的非参数化的RGB-D场景理解方法。将待标注图像与训练集中已标注的图像进行全局特征匹配,构建待标注图像相似图像的检索集;将待标注图像及其相似图像检索集中的图像进行过分割,生成超像素,并对生成的超像素进行特征提取;计算训练集中各个类别所占的比例,构建稀有类别的词典,与相似图像的检索集一起作为待标注图像的标签源;将待标注图像中的每个超像素与该图像标签源中的所有超像素进行特征匹配;构建概率图模型,利用马尔科夫随机场将最大化后验概率转化成最小化能量函数的优化问题,利用图割方法求解该问题得到待标注图像每个超像素的语义标注。本发明整合了全局和局部的几何信息,提高了RGB-D场景理解的性能。
-
-
公开(公告)号:CN102692236A
公开(公告)日:2012-09-26
申请号:CN201210151424.9
申请日:2012-05-16
Applicant: 浙江大学
Abstract: 本发明公开了一种基于RGB-D相机的视觉里程计方法。现有视觉里程计方法都是基于单目或双目相机,或无法得到场景的三维信息,或设备较为复杂安装不便。本发明包括RGB-D相机、电脑主机和自主车辆;电脑主机安装在自主车辆内部,RGB-D相机固定在自主车辆外围顶端;RGB-D相机通过USB接口(或1394接口)与电脑主机相连,本发明依靠RGB-D相机得到的对齐RGB-D图像序列,通过前后帧图像的特征提取、特征匹配与跟踪和运动估计得出车体的运动距离和方向;本发明设备简单,安装便利,成本较低,图像处理工作量较小,可获取精确的场景三维信息,运动估计结果精确可靠。
-
-
-
-
-
-
-
-
-