-
公开(公告)号:CN106780463B
公开(公告)日:2019-07-05
申请号:CN201611158405.3
申请日:2016-12-15
Applicant: 华侨大学
Abstract: 本发明一种全参考多曝光融合图像质量评估方法,充分考虑人眼视觉系统和多曝光图像的特性,利用人眼对融合后的图像对比度和饱和度比较敏感的现象,在进行多尺度分解的基础上,以对比度作为权重值对多个参考图像进行融合后作为新参考图像,再与需评估的多曝光融合图像进行对比度和饱和度的相似性比较,从而得到单层质量评估值,再将多层质量评估值加权融合得到最终分数;该方法计算简单,充分反映了人眼对于多曝光融合图像的主观感知度,能够较好地评估多曝光融合图像的质量。
-
公开(公告)号:CN109801273A
公开(公告)日:2019-05-24
申请号:CN201910016167.X
申请日:2019-01-08
Applicant: 华侨大学
Abstract: 本发明涉及一种基于极平面线性相似度的光场图像质量评价方法,属于图像处理领域,根据人类视觉系统理解光场图像时对场景结构变化的敏感性和光场图像中包含丰富的场景结构变化信息提出,方法包括:对参考光场图像和失真光场图像分别提取极平面图;接着分别提取参考极平面图和失真极平面图的线性特征图,进而计算得到极平面线性特征相似度图;基于极平面线性相似度图得到最终失真光场图像质量评价值。本发明充分利用极平面线性特征来描述光场图像中场景结构变化,从而评价失真光场图像的质量,反映人眼主观视觉系统对于光场图像的主观感知度,具有较好的光场图像质量评价性能。
-
-
公开(公告)号:CN103533330B
公开(公告)日:2016-01-06
申请号:CN201310481195.1
申请日:2013-10-15
Applicant: 华侨大学
IPC: H04N13/00 , H04N19/50 , H04N19/177 , H04N19/176
Abstract: 本发明为一种基于数据重用的多视点多描述视频编解码方法,根据多视点视频序列经空间水平和垂直下采样后产生的四个子序列非常相近的特点,将这四个子序列两两组合形成两个描述,编码时对每个描述中的一个子序列直接用标准的多视点视频编码器进行编码,另一子序列的各宏块则根据其性质不同,采用三种不同的数据重用方式进行预测编码;本发明所提出的方法简单易行,在提高多视点视频编码容错能力的同时,保持了较高的编码效率并大大降低了编码的计算复杂度。
-
公开(公告)号:CN104967855A
公开(公告)日:2015-10-07
申请号:CN201510356968.2
申请日:2015-06-25
Applicant: 华侨大学
IPC: H04N19/503
Abstract: 本发明一种适用于监控视频的编码方法,首先,利用背景建模技术建立背景帧;其次,把视频帧分割为前景区域和背景区域,并进行背景替换,把视频帧的背景区域替换成背景帧的对应区域,即空间位置相同的区域;最后把背景替换后的监控视频帧送入编码器进行编码。由于相邻两帧之间背景区域的各像素值相同,在帧间编码时,编码器无需对背景区域进行编码。因此,本发明可在保证前景目标客观质量的前提下,大大提高监控视频编码的压缩效率,降低编码的计算复杂度,可广泛地应用于视频监控系统。
-
公开(公告)号:CN118196840A
公开(公告)日:2024-06-14
申请号:CN202410610290.5
申请日:2024-05-16
Applicant: 华侨大学
Abstract: 本发明公开了一种基于语义偏好挖掘的行人再辨识方法,涉及人工智能、机器视觉领域,包括:利用预训练的语义分割模型将行人图像处理为语义分割图,将语义分割图空间划分为若干部件语义块,计算不同语义在语义分割图与部件语义块中的比例,根据不同语义的比例对部件语义块分组进行语义对齐,获得各部件语义块分组对应的部件序号;基于部件序号对部件特征分组,利用自注意网络将各部件特征组投影到公共嵌入空间并进行偏好挖掘,继而利用偏好信息对各部件特征组进行自适应聚合,增强行人再辨识准确性。
-
公开(公告)号:CN118196731A
公开(公告)日:2024-06-14
申请号:CN202410605567.5
申请日:2024-05-16
Applicant: 华侨大学 , 厦门松霖科技股份有限公司
Abstract: 本发明公开了一种基于通道与空间量子注意力学习的车辆再辨识方法及装置,涉及车辆再辨识领域,包括:利用深度网络从车辆图像中提取车辆的特征映射;设计通道量子注意力学习分支和空间量子注意力学习分支,分别对残差模块输出的特征映射学习通道量子注意力掩码和空间量子注意力掩码,并将两种注意力掩码融合为通道‑空间复合量子注意力掩码,用于增强车辆的特征映射,使深度网络能够更全面捕捉特征映射中的重要特征。本发明利用量子叠加与纠缠特性实现车辆注意力学习,能够提高特征学习效果,改善车辆再辨识的准确率,解决了传统机器学习模型难以学习这些复杂的非线性关系的问题。
-
公开(公告)号:CN117315430A
公开(公告)日:2023-12-29
申请号:CN202311595144.1
申请日:2023-11-28
Applicant: 华侨大学
IPC: G06V10/80 , G06V10/764 , G06V10/82
Abstract: 本发明一种面向大范围车辆再辨识的不完备模态特征融合方法,涉及图像处理技术领域,包括:训练包括三通道模型和单通道模型的双模态模型,对可见光车辆图像,采用三通道模型提取主特征,辅以图像灰度化,采用单通道模型提取辅助特征;对红外光车辆图像,采用单通道模型提取主特征,辅以通道复制扩展,采用三通道模型提取辅助特征;将主特征和辅特征叠加获得完整特征,利用KL散度优化完整、主、辅特征三者之间后验概率分布差异,优化特征融合效果。本发明能解决在长时间大范围的监控场景中车辆因活动轨迹复杂多变出现的模态不完备问题,即可见光和红外车辆图像不完备而无法直接实现可见光和红外图像的特征融合问题,提升车辆再辨识准确性。
-
公开(公告)号:CN111510721B
公开(公告)日:2022-11-01
申请号:CN202010278978.X
申请日:2020-04-10
Applicant: 华侨大学
IPC: H04N19/39 , H04N19/132 , H04N19/59 , H04N19/124 , H04N19/61
Abstract: 本发明提供了一种基于空间下采样的多描述编码高质量边重建方法,包括,制作数据集:选取视频,通过空间下采样分成两个描述,在量化参数QP值设定下,编码,解码,将解码后的视频和相应的原始视频作为训练集;训练SD‑VSRnet网络:每五帧视频作为网络的输入,依次进行特征提取,恢复高频细节,像素重排,再与输入的中间帧进行跳跃连接得到重建的视频帧,逐帧重建获得最后的重建视频,实现SD‑VSRnet网络的训练。本发明提出的方法制作了适用于空间下采样的多描述编码高质量边重建的数据集,另外,采用视频超分辨率的神经网络,分别测试4种QP值,可以有效提高不同压缩程度的边缘解码视频重建质量。
-
公开(公告)号:CN114972812A
公开(公告)日:2022-08-30
申请号:CN202210624115.2
申请日:2022-06-02
Applicant: 华侨大学 , 厦门亿联网络技术股份有限公司
Abstract: 本发明提供一种基于结构相似度的非局部注意力学习方法,可广泛应用于机器视觉领域,例如图像分割、图像分类、图像识别等。现有非局部注意力方法简单计算不同空域位置的两个信号内积作为二者的相似度度量,并不完全符合人类视觉感知特点。针对这一问题,本发明提出利用结构相似度衡量不同空域位置的信号之间的相似度,在非局部注意力学习方法中充分考虑人类视觉对信号感知三个重要因素,即亮度、对比度和结构。其次,本发明进一步提出多尺度结构相似度度量策略,在不同尺度上更为全面地进行信号相似度度量。因此,本发明能够取得比现有非局部注意力方法更好地注意力学习效果。
-
-
-
-
-
-
-
-
-