-
公开(公告)号:CN109948573A
公开(公告)日:2019-06-28
申请号:CN201910236935.2
申请日:2019-03-27
Applicant: 厦门大学
Abstract: 一种基于级联深度卷积神经网络的噪声鲁棒人脸识别方法,涉及计算机视觉技术。首先设计去噪子网络和人脸识别子网络,在去噪子网络中,利用密集连接的方法,将网络前6层中各层产生的特征图由前往后进行逐层连接,以充分利用浅层网络产生的人脸特征。在人脸识别子网络中采用残差网络结构,利用恒等映射的方法对网络不同层之间进行捷径连接,可有效减少深层网络结构中出现的梯度消失现象。然后采用级联的方法,将去噪子网络和人脸识别子网络进行联合训练,获得噪声鲁棒的人脸表征,并设计了一个联合损失函数用于两个子网络的权值更新。最后根据训练好的网络模型,得到最终的噪声人脸识别结果。
-
公开(公告)号:CN106683062B
公开(公告)日:2019-06-07
申请号:CN201710018297.8
申请日:2017-01-10
Applicant: 厦门大学
Abstract: 一种静止摄像机下的基于ViBe的运动目标检测方法,A初始化视频帧每个像素点前景计数和鬼影计数。B对二值图预处理。C对二值图进行前景区块划分,去除像素少的前景区块并修改前景计数。D每隔p帧对C中得到的前景计数去噪再鬼影检测。E对经C或D处理后得到的二值图中的前景区块进行内部空洞消除,再进行标记。F每隔q帧对当前视频帧和经E处理后得到的二值图进行边缘检测,生成边缘二值图后执行逻辑与操作,再边缘划分,对得到的边缘标记;统计每个前景区块中的每条边缘被所包括的前景像素个数和其对应的边缘像素个数,判断边缘有效性。G根据F中得到的有效边缘,统计每个前景区块中的有效边缘,修改鬼影计数再进行鬼影检测。
-
公开(公告)号:CN108898621A
公开(公告)日:2018-11-27
申请号:CN201810662407.9
申请日:2018-06-25
Applicant: 厦门大学
IPC: G06T7/246
Abstract: 一种基于实例感知目标建议窗口的相关滤波跟踪方法,能够在基于CNN的相关滤波框架中根据检测的稳定性自适应地选择尺度估计模式以及目标重检测模式,提高算法在尺度估计、快速运动、遮挡、背景干扰等方面的鲁棒性。由EdgeBoxes生成的目标建议窗口基于表观相似度和空间加权排序后得到的都是与目标实例具有高相似度的目标建议窗口,称为实例感知目标建议窗口。实例感知的目标建议窗口由基于CNN的相关滤波器进一步引导至最优位置,从中选取最显著的经引导后的实例感知目标建议窗口,作为目标的尺度估计或者重检测结果,可有效地解决跟踪过程中的尺度变化以及目标丢失。在标准数据集上,提出的方法获得很高的性能指标。
-
公开(公告)号:CN108734151A
公开(公告)日:2018-11-02
申请号:CN201810613931.7
申请日:2018-06-14
Applicant: 厦门大学
Abstract: 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法,涉及计算机视觉技术。通过将相关滤波以及深度孪生网络结合在一个统一的跟踪框架下,能够有效处理长视频中目标遮挡、消失视野等挑战。在该跟踪方法中,所提出的基于D-expert以及C-expert的专家评估机制能有效地对相关滤波以及深度孪生网络共同产生的目标候选位置进行评估筛选,得到最佳的目标跟踪结果,使用该结果来更新相关滤波跟踪器,从而有效避免了相关滤波跟踪器被错误样本更新。提出的目标跟踪方法对长视频中的各类挑战较为鲁棒,能够长时间稳定跟踪目标。
-
公开(公告)号:CN108520530A
公开(公告)日:2018-09-11
申请号:CN201810323668.8
申请日:2018-04-12
Applicant: 厦门大学
Abstract: 基于长短时记忆网络的目标跟踪方法,涉及计算机视觉技术。首先采用基于相似性学习的快速匹配方法对候选目标状态进行预估计,筛选出高质量的候选目标状态,然后将这些高质量的目标状态用长短时记忆网络进行分类。所用的长短时记忆网络包括用于提取特征的卷积层和用于分类的长短时记忆层。卷积层在大规模图像数据集ILSVRC15上离线训练而得,规避了对目标跟踪数据集过拟合的风险。长短时记忆层通过在线学习而得,充分利用了输入视频序列包含的时间相关性,具有良好的适应目标形态和动作变化的能力。速度显著提高,将一种可以适应目标变化的长短时记忆网络运用于目标跟踪。
-
公开(公告)号:CN108257148A
公开(公告)日:2018-07-06
申请号:CN201810046395.7
申请日:2018-01-17
Applicant: 厦门大学
Abstract: 特定对象的目标建议窗口生成方法及其在目标跟踪的应用,涉及计算机视觉技术。给定一帧训练视频,将该图像分成三个区域:完全的目标区域,完全的背景区域以及目标和背景的混合区域。对完全的目标区域和完全的背景区域分别计算目标像素和背景像素的概率分布图,更新目标像素和背景像素的概率分布图模型。给定一帧测试视频,利用训练好的概率分布图来预测图像中每个像素属于目标的概率,得到概率响应图。对原图和概率响应图分别提取目标建议窗口,把这些目标建议窗口都作为候选的目标建议窗口。对得到的目标建议窗口基于与对象的相似度进行排序,生成特定对象的目标建议窗口。把特定对象的目标建议窗口作为MDNET的训练样本实现目标跟踪。
-
公开(公告)号:CN105868789A
公开(公告)日:2016-08-17
申请号:CN201610212736.4
申请日:2016-04-07
Applicant: 厦门大学
CPC classification number: G06K9/6218
Abstract: 一种基于图像区域内聚测度的目标发现方法,涉及计算机视觉技术。提供可快速给出少量的目标建议窗口,使得目标建议窗口内尽可能包含目标的一种基于图像区域内聚测度的目标发现方法。同时解决目标检测和显著性检测问题。提出的图像区域内聚测度的方法还被应用于显著性检测,显著性检测也被作为计算机视觉任务的一项基本任务并广泛被应用于其他计算机视觉任务。
-
公开(公告)号:CN104616324A
公开(公告)日:2015-05-13
申请号:CN201510099974.4
申请日:2015-03-06
Applicant: 厦门大学
CPC classification number: G06K9/6269 , G06T7/251 , G06T2207/10016
Abstract: 基于自适应表观模型和点-集距离度量学习的目标跟踪方法,涉及计算机视觉技术。首先利用收集到的目标模板和由这些目标模板的正则化仿射组合进行目标表示,同时学习一个点-集距离度量矩阵,并将该点-集距离度量矩阵整合在表观模型建立过程中,在粒子滤波框架下进行目标跟踪。根据一个生成式跟踪算法,给出一个基于目标模板集和正则化仿射包的自适应目标表观模型。该正则化仿射包由模板集中的目标模板的仿射连接生成。同时,学习一个点-集距离度量矩阵,并整合该矩阵在目标表示优化过程中,从而获得一个自适应的目标表观模型。在线学习的点-集距离度量用来测量一个目标候选块与目标模板集之间的距离。具有很好的跟踪效果和鲁棒性。
-
公开(公告)号:CN102622769A
公开(公告)日:2012-08-01
申请号:CN201210073384.0
申请日:2012-03-19
Applicant: 厦门大学
IPC: G06T7/20
Abstract: 一种在动态场景下以深度为主导线索的多目标跟踪方法,涉及一种多目标跟踪方法。A.从双目摄像机中获取当前帧,对双目图像校正;B.对图像进行颜色分割得颜色块;C.对场景进行三维重构,得稠密深度图;D.在前一帧目标区域的扩大域内对深度信息聚类得深度类别;E.根据D获取的深度类别对该区域的超级像素分类以及前景与背景分割;F.对E提取的前景根据前一帧的表观模型做分割,提取最终的前景;G.若跟踪器处于遮挡状态,则转入I;若没有被遮挡,则返回A,否则跟踪器记录前一帧的目标表观模型,转入H;H.提取遮挡原目标的深度块,将跟踪器置于遮挡状态;I.在当前遮挡块周围对原目标进行搜索,若发现原目标,跟踪器重新被置于正常状态,则返回A。
-
公开(公告)号:CN119540999A
公开(公告)日:2025-02-28
申请号:CN202411646026.3
申请日:2024-11-18
Applicant: 厦门大学
Abstract: 基于图像‑属性和频域‑空间域双重协同学习的行人属性识别方法,涉及计算机视觉技术领域。提出一个图像‑属性协同学习框架,集成视觉信息和属性标签,以感知对行人属性更精细的语义理解;通过可学习的属性提示获取属性向量表示,将行人图像输入图像编码器以获得视觉向量表示,将属性向量表示和视觉向量表示映射联合图像‑属性协同空间中,通过对比学习损失学习图像和属性之间的语义关联。提出一个频域‑空间域协同学习模块,利用涉及频域幅度谱分量和相位谱分量的交叉注意机制进行交互式引导学习,与空间信息协同学习。全面探索和利用行人图像中的频率‑空间双域信息,获得更稳健的视觉特征。在提高行人属性识别任务性能方面具有显著优势。
-
-
-
-
-
-
-
-
-