用于同相机内有监督场景的多相机高精度行人重识别方法

    公开(公告)号:CN111723645B

    公开(公告)日:2023-04-18

    申请号:CN202010332673.2

    申请日:2020-04-24

    Applicant: 浙江大学

    Abstract: 本发明公开了一种用于同相机内有监督场景的多相机高精度行人重识别方法。在同一行人场景下采用多相机进行拍摄,选择基础网络模型并预训练后修改,采集获得待训练的行人图片集,建立针对各相机的行人记忆特征并初始化;基于已有的待训练的行人图片集,对基础网络模型进行同相机阶段的训练优化和监督;以训练后的行人记忆特征并结合采用聚类方法得到行人伪标签,用行人伪标签再对基础网络模型进行微调训练;对训练所得的基础网络模型进行跨相机行人重识别应用。本发明只需同个相机内图片标注场景下有效提高识别性能,达到与全监督场景下相当的重识别准确度,达到与全监督场景相当的行人重识别准确率。

    一种基于正负样本均衡的弱监督目标检测方法

    公开(公告)号:CN113378829B

    公开(公告)日:2022-09-27

    申请号:CN202011481683.9

    申请日:2020-12-15

    Applicant: 浙江大学

    Inventor: 阮颖颖 龚小谨

    Abstract: 本发明公开了一种基于正负样本均衡的弱监督目标检测方法。采集需要进行目标检测的场景图像,场景图像对应有标签,主要由场景图像和对应的标签组成训练集;将训练集输入筛选目标候选框模块,筛选目标候选框模块输出场景图像对应的初始目标候选框;建立弱监督目标检测网络,将训练集和对应的初始目标候选框同时输入弱监督目标检测网络中进行训练,训练过程中,获得训练后的弱监督目标检测网络;将待测场景图像分别输入到筛选目标候选框模块和训练后的弱监督目标检测网络中,对待测场景图像的目标进行分类与定位。本发明只需要含有图像所对应的图像级类别标签数据集,在无目标框级别标签存在的情况下有较好的目标检测能力。

    一种基于多模态对比学习的RGB-D语义分割方法

    公开(公告)号:CN114612666A

    公开(公告)日:2022-06-10

    申请号:CN202210272481.6

    申请日:2022-03-18

    Applicant: 浙江大学

    Inventor: 柯丹宁 龚小谨

    Abstract: 本发明公开了一种基于多模态对比学习的语义分割方法。构建训练集,建立由语义分割基础网络和对比学习模块构成的对比学习语义分割网络;语义分割基础网络包括RGB分支、深度分支、集成模块和对比学习模块,RGB分支和深度分支的分割结果通过集成模块结合得到最终分割结果并在训练阶段监督训练,RGB分支和深度分支的中间特征在训练阶段输入对比学习模块用跨模态对比损失和同模态对比损失进行优化。将待分割的RGB图像及对应的深度图像输入训练好的对比学习语义分割网络中的语义分割基础网络进行语义分割,获得语义分割结果。本发明能够更好地挖掘RGB图像和深度图像的共性,同时保留两类图像的特性,从而提升语义分割的精度。

    一种基于深度学习的端到端的语义即时定位与建图方法

    公开(公告)号:CN108665496B

    公开(公告)日:2021-01-26

    申请号:CN201810236640.0

    申请日:2018-03-21

    Applicant: 浙江大学

    Inventor: 严超华 龚小谨

    Abstract: 本发明公开了一种基于深度学习的端到端的语义即时定位与建图方法。通过彩色相机和激光雷达分别采集得到连续的原始图像序列以及与图像序列对应的原始三维点云序列,处理获得连续五帧图像序列的位姿变换信息、深度信息和语义分割信息;构建带分支的多任务深度神经网络,输入到多任务深度神经网络中,训练多任务深度神经网络获得参数,采用训练后的多任务深度神经网络对连续五帧的待测图像序列进行处理,获得图像帧之间的位姿变换信息、深度信息和语义分割信息。与传统的ORB‑SLAM算法和同样基于深度学习的方法相比,本发明方法有更好的性能。

    一种基于显著性指导的词典学习的弱监督图像解析方法

    公开(公告)号:CN105825502B

    公开(公告)日:2018-06-15

    申请号:CN201610140715.6

    申请日:2016-03-12

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于显著性指导的词典学习的弱监督图像解析方法。获得图像集及其图像级标签,对每幅图像进行超像素分割,对每个超像素提取多维特征,组合形成特征矩阵;对每幅图像进行显著性检测,得到每个超像素的平均显著值;同时定义包含有不同标签的词典,计算得到每个超像素中的指导向量;构建优化问题模型并进行求解,获得每个超像素的表示系数与其在每个词典原子中的权重以及词典:根据各个超像素的表示系数、权重和词典,求解获得每个超像素对应的标签:由此完成图像解析,获得图像的分割结果。本发明改造了传统词典学习方法,并利用显著性先验,与以往的弱监督图像解析方法相比,得到了更好的效果。

    一种基于深度神经网络的电力设备红外图像语义分割方法

    公开(公告)号:CN107564025A

    公开(公告)日:2018-01-09

    申请号:CN201710676666.2

    申请日:2017-08-09

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于深度神经网络的电力设备红外图像语义分割方法。采集电力设备红外图像,构成图像语义分割数据集并分为多部分,每个部分的图像数量相同,从图像语义分割数据集中选取一部分作增强预处理;处理获得语义分割结果图;比较后用交叉熵计算预测误差,然后使用随机梯度下降算法在基于DeepLab的深度卷积网络中对预测误差进行反向传播,更新基于DeepLab的深度卷积网络的网络参数值,迭代更新训练获得最终语义分割结果图,最后选择使用全连接的条件随机场进行后处理优化。本发明充分利用大量数据进行训练和学习出图像的本质特征,与以往的电力设备检测与分割方法相比,取得了更好的分割性能与结果。

    一种基于显著性指导的词典学习的弱监督图像解析方法

    公开(公告)号:CN105825502A

    公开(公告)日:2016-08-03

    申请号:CN201610140715.6

    申请日:2016-03-12

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于显著性指导的词典学习的弱监督图像解析方法。获得图像集及其图像级标签,对每幅图像进行超像素分割,对每个超像素提取多维特征,组合形成特征矩阵;对每幅图像进行显著性检测,得到每个超像素的平均显著值;同时定义包含有不同标签的词典,计算得到每个超像素中的指导向量;构建优化问题模型并进行求解,获得每个超像素的表示系数与其在每个词典原子中的权重以及词典:根据各个超像素的表示系数、权重和词典,求解获得每个超像素对应的标签:由此完成图像解析,获得图像的分割结果。本发明改造了传统词典学习方法,并利用显著性先验,与以往的弱监督图像解析方法相比,得到了更好的效果。

    一种基于双模态数据融合的道路检测方法

    公开(公告)号:CN103198302B

    公开(公告)日:2015-12-02

    申请号:CN201310124199.4

    申请日:2013-04-10

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于双模态数据融合的道路检测方法。包括如下步骤:激光雷达三维点的坐标系转换;获取落在摄像机图像范围内的激光雷达三维点集合;设定高度阈值,获取障碍物激光雷达三维点的子集;获取可通行道路区域激光雷达三维点的子集;获取非路区域和可通行道路区域的颜色混合高斯模型;获取图像上道路检测的感兴趣区域;构建基于马尔科夫随机场能量函数,求解能量函数最小值,获得全局最优图像道路检测结果。本发明实现了对复杂环境的鲁棒;检测结果不受道路表面阴影影响;能将传感器感知环境中细小的障碍物与可通行道路路区域区分;能对激光雷达无数据返回的区域与非路的判断;它适用于自主车辆导航等领域。

    基于混合图模型的图像序列类别标注方法

    公开(公告)号:CN104881681A

    公开(公告)日:2015-09-02

    申请号:CN201510268996.9

    申请日:2015-05-22

    Applicant: 浙江大学

    CPC classification number: G06K9/6202 G06K9/6261

    Abstract: 本发明公开了一种基于混合图模型的图像序列类别标注方法,包括:对图像序列进行超像素分割,对超像素进行特征描述;对连续两帧图像进行帧间超像素的最近邻匹配;基于单帧图像超像素间空间域的邻接关系和多帧图像超像素间时间域的匹配关系,使用混合图模型对图像序列类别标注问题进行全局优化建模;该全局优化问题使用线性方法求解,得到连续多帧图像超像素的类别标签;本发明构建的混合图模型与以往图模型相比,既可以描述单帧图像中超像素之间的一阶的、对称的关系,也可以描述连续两帧图像超像素之间的高阶的、非对称的关系,并通过线性方法求解,有效地赋予了图像序列每个超像素一个时域上一致性更好、准确率更高的类别标签。

    一种基于任意三面体的雷达-相机系统外部参数标定方法

    公开(公告)号:CN103049912B

    公开(公告)日:2015-03-11

    申请号:CN201210563695.5

    申请日:2012-12-21

    Applicant: 浙江大学

    Abstract: 本发明公开一种基于任意三面体的雷达-相机系统外部参数标定方法。利用自然环境中的三面体场景,仅需两帧数据即求解系统的外部参数。首先利用三面体规定世界坐标系,在雷达系统中对观察到的三面体进行平面拟合,得到各个平面的参数,并求得世界坐标系和雷达坐标系的转换关系以及雷达坐标系下两帧数据间的相对运动;在相机系统中,利用前后两帧提取的匹配特征点求解本质矩阵,然后分解出在相机坐标系下的相对运动,并利用雷达坐标系下的参数对相机坐标系下的平面参数进行求解,最后求解雷达-相机的外部参数,并利用两个坐标系下对应平面上点的共面性进行最终优化。本发明所要求的场景比较简单,兼具抗干扰性强、实验设备简单、灵活性较强的特点。

Patent Agency Ranking