-
公开(公告)号:CN110516640A
公开(公告)日:2019-11-29
申请号:CN201910818186.4
申请日:2019-08-30
Applicant: 华侨大学
Abstract: 本发明涉及一种基于特征金字塔联合表示的车辆再辨识方法,包括:构建特征金字塔,设计多级特征金字塔的联合表示方法,设计损失函数,对输入的图像进行距离度量学习和对比学习。本发明特别考虑了车辆再辨识中的难点,即由不同距离的摄像头捕捉到的车辆图像分辨率不同,能够有效地解决车辆再辨识中对于上述难点产生的车辆识别精度不高的问题。
-
公开(公告)号:CN110390654A
公开(公告)日:2019-10-29
申请号:CN201910688638.1
申请日:2019-07-29
Applicant: 华侨大学
IPC: G06T5/00
Abstract: 本发明涉及一种针对去雨图像的多级迭代协同表示的后处理方法,基于训练图像对,即去雨图像和对应的无雨图像,使得在去雨过程中丢失的部分细节,可以通过训练图像对组成的训练集学习其回归关系来恢复。本发明提出迭代协同的表示方法,即在训练阶段系统的学习去雨图像与对应的无雨图像特征对之间的多层次映射模型,随后利用多级映射模型,在相应的迭代中不断优化去雨图像,有效地提高去雨图像的视觉质量。
-
公开(公告)号:CN106780463A
公开(公告)日:2017-05-31
申请号:CN201611158405.3
申请日:2016-12-15
Applicant: 华侨大学
CPC classification number: G06T7/0002 , G06K9/6215 , G06T2207/20021 , G06T2207/30168
Abstract: 本发明一种基于对比度和饱和度的全参考多曝光融合图像质量评估方法,充分考虑人眼视觉系统和多曝光图像的特性,利用人眼对融合后的图像对比度和饱和度比较敏感的现象,在进行多尺度分解的基础上,以对比度作为权重值对多个参考图像进行融合后作为新参考图像,再与需评估的多曝光融合图像进行对比度和饱和度的相似性比较,从而得到单层质量评估值,再将多层质量评估值加权融合得到最终分数;该方法计算简单,充分反映了人眼对于多曝光融合图像的主观感知度,能够较好地评估多曝光融合图像的质量。
-
公开(公告)号:CN106504230A
公开(公告)日:2017-03-15
申请号:CN201610886339.5
申请日:2016-10-11
Applicant: 华侨大学
IPC: G06T7/00
CPC classification number: G06T7/0002 , G06T2207/10024 , G06T2207/20024 , G06T2207/30168
Abstract: 本发明涉及一种基于相位一致性的全参考彩色屏幕图像质量评估方法,属于图像处理领域,根据人类视觉系统理解图像时对结构信息的依赖性和屏幕图像包含丰富边缘结构信息的特征提出,方法包括:对参考屏幕图像和失真屏幕图像从RGB色彩空间转化为CIELAB对色空间;分别提取参考屏幕图像亮度分量和失真屏幕图像亮度分量的相位一致性特征图;结合相位一致性、黄蓝对比色度分量和红绿对比色度分量计算局部图像质量图;将局部图像质量图的标准差作为最终屏幕图像质量值。本发明充分利用相位一致性和色度分量的相似性来评估彩色失真屏幕图像的质量,反映人眼主观视觉系统对于屏幕图像的主观感知度,具有较好的屏幕图像质量评估性能,且计算简单。
-
公开(公告)号:CN118521876B
公开(公告)日:2024-10-22
申请号:CN202410978491.0
申请日:2024-07-22
Applicant: 华侨大学 , 杭州电子科技大学 , 厦门亿联网络技术股份有限公司
IPC: G06V10/98 , G06N3/045 , G06N3/0464 , G06V10/40 , G06V10/54 , G06V10/74 , G06V10/776 , G06V10/82 , G06V20/40
Abstract: 本发明公开了一种基于相似性度量的沉浸式视频质量评价方法及装置,涉及视频处理领域,为了尽可能地解决视频中所存在的冗余信息问题,首先采用随机抽样的方式筛选视频帧;然后考虑到卷积神经网络能够很好地模拟人类视觉感知过程充分捕捉从低层次到高层次的视觉信息进而提取纹理和结构特征,采用预训练的ResNet50模型进行特征提取;并考虑到人类的视觉感知系统在观看视频时不仅会受视频内容的影响还会受到记忆时间的影响,利用一个受主观启发的时间池化策略得到纹理和深度视频的质量分数;最后根据人眼视觉的偏好对纹理和深度视频质量评分进行权重调整得到最终的沉浸式视频质量分数。本发明具有较好的沉浸式视频质量评价效果。
-
公开(公告)号:CN111160226B
公开(公告)日:2023-03-31
申请号:CN201911370041.9
申请日:2019-12-26
Applicant: 华侨大学
IPC: G06V40/10 , G06V10/764 , G06V10/82 , G06V10/77 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明涉及一种基于视角自适应特征学习的行人性别识别方法包括:视角自适应训练过程,性别识别过程。本发明利用输入行人的视角信息来指导卷积神经网络的特征学习过程,以减轻行人视角变化对神经网络进行性别识别的影响,使训练得到的网络模型具有更加准确的行人性别识别效果。本发明结合了行人的视角信息,解决了以往基于卷积神经网络用在行人性别识别问题上的不足,有效地提高了行人性别识别精度。本发明可以被广泛地应用在智能视频监控场景,例如大型商场,机场,火车站等。
-
公开(公告)号:CN111524104B
公开(公告)日:2023-03-24
申请号:CN202010285704.3
申请日:2020-04-13
Applicant: 华侨大学
Abstract: 本发明涉及一种基于多尺度轮廓波特征的全参考光场图像质量评价方法,基于光场图像表面的轮廓和曲线具有感知相关性,通过具有良好各向异性的多尺度多方向轮廓波变换有效地捕捉光场图像中场景结构变化的边缘和轮廓细节,充分考虑了人眼视觉系统对于光场图像的主观感知度,具有较好的光场图像质量评价性能。本发明的实施,能够得到匹配于人眼视觉的主观感知度的评价结果。
-
公开(公告)号:CN110390654B
公开(公告)日:2022-11-01
申请号:CN201910688638.1
申请日:2019-07-29
Applicant: 华侨大学
IPC: G06T5/00
Abstract: 本发明涉及一种针对去雨图像的多级迭代协同表示的后处理方法,基于训练图像对,即去雨图像和对应的无雨图像,使得在去雨过程中丢失的部分细节,可以通过训练图像对组成的训练集学习其回归关系来恢复。本发明提出迭代协同的表示方法,即在训练阶段系统的学习去雨图像与对应的无雨图像特征对之间的多层次映射模型,随后利用多级映射模型,在相应的迭代中不断优化去雨图像,有效地提高去雨图像的视觉质量。
-
公开(公告)号:CN110390308B
公开(公告)日:2022-09-30
申请号:CN201910682423.9
申请日:2019-07-26
Applicant: 华侨大学
IPC: G06V20/40 , G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于时空对抗生成网络的视频行为识别方法,包括:基于空域对抗生成网络提取输入的包含人类行为的视频的空间特征,基于时域对抗生成网络提取输入的包含人类行为的视频的时间特征,将空间对抗生成网络和时间对抗生成网络提取的两个维度特征进行拼接,得到时空融合特征,通过SVM支持向量机对融合后的特征向量进行分类,从而识别出视频行为。本发明基于时空生成对抗网络,充分考虑其学习特性、视频特点和人类动作特征,有效地结合人类行为特征提取视频中所包含的主要时空特征信息进行融合,基于时空特征信息之间的互补性获得更有表征能力的时空特征,从而对输入视频做出准确的行为识别。
-
公开(公告)号:CN111160226A
公开(公告)日:2020-05-15
申请号:CN201911370041.9
申请日:2019-12-26
Applicant: 华侨大学
Abstract: 本发明涉及一种基于视角自适应特征学习的行人性别识别方法包括:视角自适应训练过程,性别识别过程。本发明利用输入行人的视角信息来指导卷积神经网络的特征学习过程,以减轻行人视角变化对神经网络进行性别识别的影响,使训练得到的网络模型具有更加准确的行人性别识别效果。本发明结合了行人的视角信息,解决了以往基于卷积神经网络用在行人性别识别问题上的不足,有效地提高了行人性别识别精度。本发明可以被广泛地应用在智能视频监控场景,例如大型商场,机场,火车站等。
-
-
-
-
-
-
-
-
-