-
公开(公告)号:CN110309770A
公开(公告)日:2019-10-08
申请号:CN201910577021.2
申请日:2019-06-28
Applicant: 华侨大学
Abstract: 本发明涉及一种基于四元组损失度量学习的车辆再辨识方法,包括:构建参数共享的四分支卷积神经网络,设计四元组损失函数,对输入的四元组图像进行距离度量学习。本发明特别考虑了车辆再辨识中的特殊难点,即,车型和颜色都相同的车辆具有非常相似的车辆外观,能够有效地解决车辆再辨识中对于高相似度车辆识别精度不高的问题。
-
公开(公告)号:CN106780463B
公开(公告)日:2019-07-05
申请号:CN201611158405.3
申请日:2016-12-15
Applicant: 华侨大学
Abstract: 本发明一种全参考多曝光融合图像质量评估方法,充分考虑人眼视觉系统和多曝光图像的特性,利用人眼对融合后的图像对比度和饱和度比较敏感的现象,在进行多尺度分解的基础上,以对比度作为权重值对多个参考图像进行融合后作为新参考图像,再与需评估的多曝光融合图像进行对比度和饱和度的相似性比较,从而得到单层质量评估值,再将多层质量评估值加权融合得到最终分数;该方法计算简单,充分反映了人眼对于多曝光融合图像的主观感知度,能够较好地评估多曝光融合图像的质量。
-
公开(公告)号:CN111126310B
公开(公告)日:2023-03-24
申请号:CN201911367254.6
申请日:2019-12-26
Applicant: 华侨大学
IPC: G06V40/10 , G06V10/774 , G06V10/82 , G06N3/0475 , G06N3/0464 , G06N3/094
Abstract: 本发明涉及一种基于场景迁移的行人性别识别方法,包括场景迁移过程与性别识别过程。本发明通过对偶生成对抗模型对来自不同场景的行人图像集进行图像迁移,减小不同数据集中行人场景的差异。利用迁移图像训练卷积神经网络,使网络模型具有较高精度的性别识别能力。本发明结合了对偶生成对抗模型用于图像迁移的优点,解决了以往基于卷积神经网络在行人性别识别问题上的不足,有效地提高了行人性别识别精度。本发明可以被广泛地应用在智能视频监控场景,大型商场的人口统计等。
-
公开(公告)号:CN114817596A
公开(公告)日:2022-07-29
申请号:CN202210390000.1
申请日:2022-04-14
Applicant: 华侨大学
IPC: G06F16/532 , G06F16/583 , G06V10/80 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提出一种融合语义相似性嵌入和度量学习的跨模态图文检索方法,具体包括:首先构建特征嵌入模块抽取每个模态的深度特征,然后在图像和文本的单模态表征空间和跨模态公共表征空间通过标签域监督信息和语义一致性监督信息分别进行表征学习。同时,设计一个深度相似性度量网络对融合后的图像文本对进行相似性比较,得到相似性得分,通过语义相似性矩阵监督相似性学习。通过损失函数将模型统一到一个整体的框架内,训练可得到端到端的跨模态图文检索模型。通过实验表明,本发明能够有效解决跨模态图文检索中精确度不高的问题。
-
公开(公告)号:CN114710667A
公开(公告)日:2022-07-05
申请号:CN202210269314.6
申请日:2022-03-18
Applicant: 华侨大学
IPC: H04N19/107 , H04N19/11 , H04N19/96
Abstract: 本发明公开了一种针对H.266/VVC屏幕内容帧内CU划分的快速预测方法及装置,通过收集屏幕内容视频建立数据库,用于训练模型;构建宽度自适应网络模型,预测两种不同尺寸CU的划分方式,预测步骤如下:先采用网络模型对64×64大小的CU进行划分方式预测,若为不划分,则停止CU的RD代价计算,若为划分,则得到4个32×32大小的CU,则采用网络模型对32×32大小的CU的划分方式进行预测,若为不划分,则停止RD的代价计算,若为四叉树划分,则得到4个16×16的CU:若为多种类型叉树划分,则需要依靠标准编码器进行计算;最后设定适当的预设阈值来提高预测准确率。本发明能够在保持H.266/VVC编码效率的前提下,有效地降低H.266/VVC屏幕内容的帧内预测编码计算复杂度。
-
公开(公告)号:CN111988613A
公开(公告)日:2020-11-24
申请号:CN202010778526.8
申请日:2020-08-05
Applicant: 华侨大学
IPC: H04N19/154 , H04N17/00 , G06K9/62
Abstract: 本发明涉及一种基于张量分解的屏幕内容视频质量分析方法,方法包括:对选定参考屏幕内容视频序列和失真屏幕内容序列分别进行张量分解,得到三方向切片集合的主成分切片;分别提取三方向参考主成分切片和三方向失真主成分切片的Gabor特征图,从而计算得到三方向特征相似度图;基于三方向特征相似度图获得最终失真屏幕内容视频质量分析值。本发明充分利用张量分解理论来描述屏幕内容视频的基本纹理结构,并通过Gabor滤波器提取人眼高度敏感的边缘信息,反映人眼视觉系统对于屏幕内容视频的主观感知度,具有较好的失真屏幕内容视频质量分析性能。
-
公开(公告)号:CN111524104A
公开(公告)日:2020-08-11
申请号:CN202010285704.3
申请日:2020-04-13
Applicant: 华侨大学
Abstract: 本发明涉及一种基于多尺度轮廓波特征的全参考光场图像质量评价方法,基于光场图像表面的轮廓和曲线具有感知相关性,通过具有良好各向异性的多尺度多方向轮廓波变换有效地捕捉光场图像中场景结构变化的边缘和轮廓细节,充分考虑了人眼视觉系统对于光场图像的主观感知度,具有较好的光场图像质量评价性能。本发明的实施,能够得到匹配于人眼视觉的主观感知度的评价结果。
-
公开(公告)号:CN111126310A
公开(公告)日:2020-05-08
申请号:CN201911367254.6
申请日:2019-12-26
Applicant: 华侨大学
Abstract: 本发明涉及一种基于场景迁移的行人性别识别方法,包括场景迁移过程与性别识别过程。本发明通过对偶生成对抗模型对来自不同场景的行人图像集进行图像迁移,减小不同数据集中行人场景的差异。利用迁移图像训练卷积神经网络,使网络模型具有较高精度的性别识别能力。本发明结合了对偶生成对抗模型用于图像迁移的优点,解决了以往基于卷积神经网络在行人性别识别问题上的不足,有效地提高了行人性别识别精度。本发明可以被广泛地应用在智能视频监控场景,大型商场的人口统计等。
-
-
-
-
-
-
-