一种全参考多曝光融合图像质量评估方法

    公开(公告)号:CN106780463B

    公开(公告)日:2019-07-05

    申请号:CN201611158405.3

    申请日:2016-12-15

    Applicant: 华侨大学

    Abstract: 本发明一种全参考多曝光融合图像质量评估方法,充分考虑人眼视觉系统和多曝光图像的特性,利用人眼对融合后的图像对比度和饱和度比较敏感的现象,在进行多尺度分解的基础上,以对比度作为权重值对多个参考图像进行融合后作为新参考图像,再与需评估的多曝光融合图像进行对比度和饱和度的相似性比较,从而得到单层质量评估值,再将多层质量评估值加权融合得到最终分数;该方法计算简单,充分反映了人眼对于多曝光融合图像的主观感知度,能够较好地评估多曝光融合图像的质量。

    一种基于场景迁移的行人性别识别方法

    公开(公告)号:CN111126310B

    公开(公告)日:2023-03-24

    申请号:CN201911367254.6

    申请日:2019-12-26

    Applicant: 华侨大学

    Abstract: 本发明涉及一种基于场景迁移的行人性别识别方法,包括场景迁移过程与性别识别过程。本发明通过对偶生成对抗模型对来自不同场景的行人图像集进行图像迁移,减小不同数据集中行人场景的差异。利用迁移图像训练卷积神经网络,使网络模型具有较高精度的性别识别能力。本发明结合了对偶生成对抗模型用于图像迁移的优点,解决了以往基于卷积神经网络在行人性别识别问题上的不足,有效地提高了行人性别识别精度。本发明可以被广泛地应用在智能视频监控场景,大型商场的人口统计等。

    针对H.266/VVC屏幕内容帧内CU划分的快速预测方法及装置

    公开(公告)号:CN114710667A

    公开(公告)日:2022-07-05

    申请号:CN202210269314.6

    申请日:2022-03-18

    Applicant: 华侨大学

    Abstract: 本发明公开了一种针对H.266/VVC屏幕内容帧内CU划分的快速预测方法及装置,通过收集屏幕内容视频建立数据库,用于训练模型;构建宽度自适应网络模型,预测两种不同尺寸CU的划分方式,预测步骤如下:先采用网络模型对64×64大小的CU进行划分方式预测,若为不划分,则停止CU的RD代价计算,若为划分,则得到4个32×32大小的CU,则采用网络模型对32×32大小的CU的划分方式进行预测,若为不划分,则停止RD的代价计算,若为四叉树划分,则得到4个16×16的CU:若为多种类型叉树划分,则需要依靠标准编码器进行计算;最后设定适当的预设阈值来提高预测准确率。本发明能够在保持H.266/VVC编码效率的前提下,有效地降低H.266/VVC屏幕内容的帧内预测编码计算复杂度。

    一种基于张量分解的屏幕内容视频质量分析方法

    公开(公告)号:CN111988613A

    公开(公告)日:2020-11-24

    申请号:CN202010778526.8

    申请日:2020-08-05

    Applicant: 华侨大学

    Abstract: 本发明涉及一种基于张量分解的屏幕内容视频质量分析方法,方法包括:对选定参考屏幕内容视频序列和失真屏幕内容序列分别进行张量分解,得到三方向切片集合的主成分切片;分别提取三方向参考主成分切片和三方向失真主成分切片的Gabor特征图,从而计算得到三方向特征相似度图;基于三方向特征相似度图获得最终失真屏幕内容视频质量分析值。本发明充分利用张量分解理论来描述屏幕内容视频的基本纹理结构,并通过Gabor滤波器提取人眼高度敏感的边缘信息,反映人眼视觉系统对于屏幕内容视频的主观感知度,具有较好的失真屏幕内容视频质量分析性能。

    基于多尺度轮廓波特征的全参考光场图像质量评价方法

    公开(公告)号:CN111524104A

    公开(公告)日:2020-08-11

    申请号:CN202010285704.3

    申请日:2020-04-13

    Applicant: 华侨大学

    Abstract: 本发明涉及一种基于多尺度轮廓波特征的全参考光场图像质量评价方法,基于光场图像表面的轮廓和曲线具有感知相关性,通过具有良好各向异性的多尺度多方向轮廓波变换有效地捕捉光场图像中场景结构变化的边缘和轮廓细节,充分考虑了人眼视觉系统对于光场图像的主观感知度,具有较好的光场图像质量评价性能。本发明的实施,能够得到匹配于人眼视觉的主观感知度的评价结果。

    一种基于场景迁移的行人性别识别方法

    公开(公告)号:CN111126310A

    公开(公告)日:2020-05-08

    申请号:CN201911367254.6

    申请日:2019-12-26

    Applicant: 华侨大学

    Abstract: 本发明涉及一种基于场景迁移的行人性别识别方法,包括场景迁移过程与性别识别过程。本发明通过对偶生成对抗模型对来自不同场景的行人图像集进行图像迁移,减小不同数据集中行人场景的差异。利用迁移图像训练卷积神经网络,使网络模型具有较高精度的性别识别能力。本发明结合了对偶生成对抗模型用于图像迁移的优点,解决了以往基于卷积神经网络在行人性别识别问题上的不足,有效地提高了行人性别识别精度。本发明可以被广泛地应用在智能视频监控场景,大型商场的人口统计等。

Patent Agency Ranking