特定对象的目标建议窗口生成方法及其在目标跟踪的应用

    公开(公告)号:CN108257148A

    公开(公告)日:2018-07-06

    申请号:CN201810046395.7

    申请日:2018-01-17

    Applicant: 厦门大学

    Abstract: 特定对象的目标建议窗口生成方法及其在目标跟踪的应用,涉及计算机视觉技术。给定一帧训练视频,将该图像分成三个区域:完全的目标区域,完全的背景区域以及目标和背景的混合区域。对完全的目标区域和完全的背景区域分别计算目标像素和背景像素的概率分布图,更新目标像素和背景像素的概率分布图模型。给定一帧测试视频,利用训练好的概率分布图来预测图像中每个像素属于目标的概率,得到概率响应图。对原图和概率响应图分别提取目标建议窗口,把这些目标建议窗口都作为候选的目标建议窗口。对得到的目标建议窗口基于与对象的相似度进行排序,生成特定对象的目标建议窗口。把特定对象的目标建议窗口作为MDNET的训练样本实现目标跟踪。

    一种基于图像区域内聚测度的目标发现方法

    公开(公告)号:CN105868789A

    公开(公告)日:2016-08-17

    申请号:CN201610212736.4

    申请日:2016-04-07

    Applicant: 厦门大学

    CPC classification number: G06K9/6218

    Abstract: 一种基于图像区域内聚测度的目标发现方法,涉及计算机视觉技术。提供可快速给出少量的目标建议窗口,使得目标建议窗口内尽可能包含目标的一种基于图像区域内聚测度的目标发现方法。同时解决目标检测和显著性检测问题。提出的图像区域内聚测度的方法还被应用于显著性检测,显著性检测也被作为计算机视觉任务的一项基本任务并广泛被应用于其他计算机视觉任务。

    基于自适应表观模型和点-集距离度量学习的目标跟踪方法

    公开(公告)号:CN104616324A

    公开(公告)日:2015-05-13

    申请号:CN201510099974.4

    申请日:2015-03-06

    Applicant: 厦门大学

    Inventor: 王菡子 王军

    CPC classification number: G06K9/6269 G06T7/251 G06T2207/10016

    Abstract: 基于自适应表观模型和点-集距离度量学习的目标跟踪方法,涉及计算机视觉技术。首先利用收集到的目标模板和由这些目标模板的正则化仿射组合进行目标表示,同时学习一个点-集距离度量矩阵,并将该点-集距离度量矩阵整合在表观模型建立过程中,在粒子滤波框架下进行目标跟踪。根据一个生成式跟踪算法,给出一个基于目标模板集和正则化仿射包的自适应目标表观模型。该正则化仿射包由模板集中的目标模板的仿射连接生成。同时,学习一个点-集距离度量矩阵,并整合该矩阵在目标表示优化过程中,从而获得一个自适应的目标表观模型。在线学习的点-集距离度量用来测量一个目标候选块与目标模板集之间的距离。具有很好的跟踪效果和鲁棒性。

    一种在动态场景下以深度为主导线索的多目标跟踪方法

    公开(公告)号:CN102622769A

    公开(公告)日:2012-08-01

    申请号:CN201210073384.0

    申请日:2012-03-19

    Applicant: 厦门大学

    Abstract: 一种在动态场景下以深度为主导线索的多目标跟踪方法,涉及一种多目标跟踪方法。A.从双目摄像机中获取当前帧,对双目图像校正;B.对图像进行颜色分割得颜色块;C.对场景进行三维重构,得稠密深度图;D.在前一帧目标区域的扩大域内对深度信息聚类得深度类别;E.根据D获取的深度类别对该区域的超级像素分类以及前景与背景分割;F.对E提取的前景根据前一帧的表观模型做分割,提取最终的前景;G.若跟踪器处于遮挡状态,则转入I;若没有被遮挡,则返回A,否则跟踪器记录前一帧的目标表观模型,转入H;H.提取遮挡原目标的深度块,将跟踪器置于遮挡状态;I.在当前遮挡块周围对原目标进行搜索,若发现原目标,跟踪器重新被置于正常状态,则返回A。

    基于图像-属性和频域-空间域双重协同学习的行人属性识别方法

    公开(公告)号:CN119540999A

    公开(公告)日:2025-02-28

    申请号:CN202411646026.3

    申请日:2024-11-18

    Applicant: 厦门大学

    Abstract: 基于图像‑属性和频域‑空间域双重协同学习的行人属性识别方法,涉及计算机视觉技术领域。提出一个图像‑属性协同学习框架,集成视觉信息和属性标签,以感知对行人属性更精细的语义理解;通过可学习的属性提示获取属性向量表示,将行人图像输入图像编码器以获得视觉向量表示,将属性向量表示和视觉向量表示映射联合图像‑属性协同空间中,通过对比学习损失学习图像和属性之间的语义关联。提出一个频域‑空间域协同学习模块,利用涉及频域幅度谱分量和相位谱分量的交叉注意机制进行交互式引导学习,与空间信息协同学习。全面探索和利用行人图像中的频率‑空间双域信息,获得更稳健的视觉特征。在提高行人属性识别任务性能方面具有显著优势。

    一种基于跨模态对比学习网络的小样本行为识别方法

    公开(公告)号:CN117372927A

    公开(公告)日:2024-01-09

    申请号:CN202311373809.4

    申请日:2023-10-23

    Inventor: 王菡子 王晓 严严

    Abstract: 一种基于跨模态对比学习网络的小样本行为识别方法,涉及计算机视觉技术。A.给定一些视频,将每个视频中随机抽取nseg帧。B.将采样的视频帧输入时空增强模块获得增强的视频向量。C.步骤B生成的视觉向量输入语义生成网络生成语义向量。D.将视觉向量和语义向量相连接构造混合特征向量,输入非线性对比映射头获得变换的混合特征向量。E.利用步骤B中获得的视觉向量和高斯噪声生成合成向量,并输入到非线性对比映射头获得最终的合成向量。F.将步骤D中生成的变换的混合特征向量和步骤E中生成的合成向量视为类原型,利用余弦相似性计算类原型之间的距离,获得预测可能性。与当前主流的小样本行为识别方法相比,所提出的方法分类性能有所提升。

    一种基于图像的视觉关系检测方法及相关装置

    公开(公告)号:CN117218461A

    公开(公告)日:2023-12-12

    申请号:CN202311039628.8

    申请日:2023-08-16

    Abstract: 本申请公开一种基于图像的视觉关系检测方法及相关装置,将待测图像输入对象检测器进行对象检测,输出多个待测对象和其对应的多个第一对象视觉特征;对象检测器由样本图像和跨模态预训练模型中图像编码器知识蒸馏得到。将两个待测对象形成的待测对象组对应的第一对象视觉特征输入特征提取网络进行关系特征提取,输出第一关系视觉特征;将待测对象组对应的待测对象文本对输入语义编码器,基于多个样本视觉关系和新增视觉关系进行关系语义编码,输出多个第一关系语义特征;语义编码器属于跨模态预训练模型在训练时参数处于冻结状态。通过分类检测器对多个第一关系语义特征分别与第一关系视觉特征进行相似度检测,确定待测对象组对应的目标视觉关系。

    基于联合和交替学习框架的跨域新类人脸表情识别方法

    公开(公告)号:CN114333027A

    公开(公告)日:2022-04-12

    申请号:CN202111671593.0

    申请日:2021-12-31

    Abstract: 本发明公开了基于联合和交替学习框架的跨域新类人脸表情识别方法,包括:A、建立基本类表情数据集和复合类表情数据集;B、构建用于表情数据识别的情感‑相似度网络;C、对步骤B中的情感分支进行训练全部基本类表情数据的分类模型;D、对步骤B中的相似度分支进行学习表情数据可迁移的特征和度量;E、构建二阶段的联合和交替学习学习框架进行训练情感‑相似度网络,以提高模型对新类表情的泛化能力;F、在复合类表情数据集上采样N个类,使每类包含K个有标签样本作为支持集,每类Q个样本作为查询集,然后基于经训练的相似度分支对查询集进行新类表情分类准确率的计算;本方案是一种灵活且贴近实际需求的解决新类人脸表情识别问题的方案。

Patent Agency Ranking