-
公开(公告)号:CN110309770B
公开(公告)日:2022-09-30
申请号:CN201910577021.2
申请日:2019-06-28
Applicant: 华侨大学
Abstract: 本发明涉及一种基于四元组损失度量学习的车辆再辨识方法,包括:构建参数共享的四分支卷积神经网络,设计四元组损失函数,对输入的四元组图像进行距离度量学习。本发明特别考虑了车辆再辨识中的特殊难点,即,车型和颜色都相同的车辆具有非常相似的车辆外观,能够有效地解决车辆再辨识中对于高相似度车辆识别精度不高的问题。
-
公开(公告)号:CN111985548A
公开(公告)日:2020-11-24
申请号:CN202010802092.0
申请日:2020-08-11
Applicant: 华侨大学
IPC: G06K9/62 , G06N3/04 , G06N3/08 , G06F40/30 , G06F16/906 , G06F16/901
Abstract: 本发明公开了一种标签引导的跨模态深度哈希方法,包括:构建图像、文本以及对应标签信息的特征提取网络,设计损失函数,对输入的文本和图像两个模态进行共同表征空间学习和标签空间的学习,进而消除不同模态间的语义鸿沟。本发明特别考虑了跨模态检索领域中的难点,不同模态的数据存在语义鸿沟,即表现为高层语义相关,底层特征异构,本发明能够有效提高跨模态检索精度。
-
公开(公告)号:CN110390308A
公开(公告)日:2019-10-29
申请号:CN201910682423.9
申请日:2019-07-26
Applicant: 华侨大学
Abstract: 本发明涉及一种基于时空对抗生成网络的视频行为识别方法,包括:基于空域对抗生成网络提取输入的包含人类行为的视频的空间特征,基于时域对抗生成网络提取输入的包含人类行为的视频的时间特征,将空间对抗生成网络和时间对抗生成网络提取的两个维度特征进行拼接,得到时空融合特征,通过SVM支持向量机对融合后的特征向量进行分类,从而识别出视频行为。本发明基于时空生成对抗网络,充分考虑其学习特性、视频特点和人类动作特征,有效地结合人类行为特征提取视频中所包含的主要时空特征信息进行融合,基于时空特征信息之间的互补性获得更有表征能力的时空特征,从而对输入视频做出准确的行为识别。
-
公开(公告)号:CN106504230B
公开(公告)日:2019-02-26
申请号:CN201610886339.5
申请日:2016-10-11
Applicant: 华侨大学
IPC: G06T7/00
Abstract: 本发明涉及一种基于相位一致性的全参考彩色屏幕图像质量评估方法,属于图像处理领域,根据人类视觉系统理解图像时对结构信息的依赖性和屏幕图像包含丰富边缘结构信息的特征提出,方法包括:对参考屏幕图像和失真屏幕图像从RGB色彩空间转化为CIELAB对色空间;分别提取参考屏幕图像亮度分量和失真屏幕图像亮度分量的相位一致性特征图;结合相位一致性、黄蓝对比色度分量和红绿对比色度分量计算局部图像质量图;将局部图像质量图的标准差作为最终屏幕图像质量值。本发明充分利用相位一致性和色度分量的相似性来评估彩色失真屏幕图像的质量,反映人眼主观视觉系统对于屏幕图像的主观感知度,具有较好的屏幕图像质量评估性能,且计算简单。
-
公开(公告)号:CN118521876A
公开(公告)日:2024-08-20
申请号:CN202410978491.0
申请日:2024-07-22
Applicant: 华侨大学 , 杭州电子科技大学 , 厦门亿联网络技术股份有限公司
IPC: G06V10/98 , G06N3/045 , G06N3/0464 , G06V10/40 , G06V10/54 , G06V10/74 , G06V10/776 , G06V10/82 , G06V20/40
Abstract: 本发明公开了一种基于相似性度量的沉浸式视频质量评价方法及装置,涉及视频处理领域,为了尽可能地解决视频中所存在的冗余信息问题,首先采用随机抽样的方式筛选视频帧;然后考虑到卷积神经网络能够很好地模拟人类视觉感知过程充分捕捉从低层次到高层次的视觉信息进而提取纹理和结构特征,采用预训练的ResNet50模型进行特征提取;并考虑到人类的视觉感知系统在观看视频时不仅会受视频内容的影响还会受到记忆时间的影响,利用一个受主观启发的时间池化策略得到纹理和深度视频的质量分数;最后根据人眼视觉的偏好对纹理和深度视频质量评分进行权重调整得到最终的沉浸式视频质量分数。本发明具有较好的沉浸式视频质量评价效果。
-
公开(公告)号:CN111988613B
公开(公告)日:2022-11-01
申请号:CN202010778526.8
申请日:2020-08-05
Applicant: 华侨大学
IPC: H04N19/154 , H04N17/00 , G06K9/62
Abstract: 本发明涉及一种基于张量分解的屏幕内容视频质量分析方法,方法包括:对选定参考屏幕内容视频序列和失真屏幕内容序列分别进行张量分解,得到三方向切片集合的主成分切片;分别提取三方向参考主成分切片和三方向失真主成分切片的Gabor特征图,从而计算得到三方向特征相似度图;基于三方向特征相似度图获得最终失真屏幕内容视频质量分析值。本发明充分利用张量分解理论来描述屏幕内容视频的基本纹理结构,并通过Gabor滤波器提取人眼高度敏感的边缘信息,反映人眼视觉系统对于屏幕内容视频的主观感知度,具有较好的失真屏幕内容视频质量分析性能。
-
公开(公告)号:CN106960176A
公开(公告)日:2017-07-18
申请号:CN201710096262.6
申请日:2017-02-22
Applicant: 华侨大学
Abstract: 本发明一种基于超限学习机和颜色特征融合的行人性别识别方法,包括:提取未标记性别属性的训练图像的超限学习机特征;提取未标记性别属性的输入训练图像HSV颜色特征,将超限学习机特征与颜色特征进行组合,获得融合特征,根据融合特征和训练图像标签利用线性支持向量机SVM训练行人性别分类器;利用训练所得模型提取测试图像特征,同时提取其HSV颜色特征,接着将两类特征进行融合,获得测试图像的融合特征,用训练过程所得线性支持向量机SVM行人性别分类器对融合特征进行分类。本发明对输入图像提取超限学习特征与颜色特征并进行有效融合,实现两种特征的互补,更有效地捕捉行人性别属性,从而提高行人性别识别率。
-
公开(公告)号:CN110516640B
公开(公告)日:2022-09-30
申请号:CN201910818186.4
申请日:2019-08-30
Applicant: 华侨大学
IPC: G06V20/58 , G06V10/46 , G06V10/774
Abstract: 本发明涉及一种基于特征金字塔联合表示的车辆再辨识方法,包括:构建特征金字塔,设计多级特征金字塔的联合表示方法,设计损失函数,对输入的图像进行距离度量学习和对比学习。本发明特别考虑了车辆再辨识中的难点,即由不同距离的摄像头捕捉到的车辆图像分辨率不同,能够有效地解决车辆再辨识中对于上述难点产生的车辆识别精度不高的问题。
-
公开(公告)号:CN113011281A
公开(公告)日:2021-06-22
申请号:CN202110220509.7
申请日:2021-02-26
Applicant: 华侨大学
Abstract: 本发明公开一种基于3D‑DOG特征的光场图像质量识别方法,包括:将输入参考和失真光场图像转化为参考和失真光场序列;分别对参考和失真光场序列采用3D‑DOG滤波器提取3D‑DOG特征;基于3D‑DOG特征计算参考和失真光场序列的相似度;使用3D‑DOG特征池化策略计算得到光场图像质量分数。本发明充分考虑到人眼视觉系统对二维边缘信息和三维几何结构的敏感度,采用3D‑DOG特征有效地描述光场图像的场景边缘信息和结构变化,具有较好的光场图像质量评价性能。
-
公开(公告)号:CN106960176B
公开(公告)日:2020-03-10
申请号:CN201710096262.6
申请日:2017-02-22
Applicant: 华侨大学
Abstract: 本发明一种基于超限学习机和颜色特征融合的行人性别识别方法,包括:提取未标记性别属性的训练图像的超限学习机特征;提取未标记性别属性的输入训练图像HSV颜色特征,将超限学习机特征与颜色特征进行组合,获得融合特征,根据融合特征和训练图像标签利用线性支持向量机SVM训练行人性别分类器;利用训练所得模型提取测试图像特征,同时提取其HSV颜色特征,接着将两类特征进行融合,获得测试图像的融合特征,用训练过程所得线性支持向量机SVM行人性别分类器对融合特征进行分类。本发明对输入图像提取超限学习特征与颜色特征并进行有效融合,实现两种特征的互补,更有效地捕捉行人性别属性,从而提高行人性别识别率。
-
-
-
-
-
-
-
-
-