面向大范围车辆再辨识的不完备模态特征融合方法

    公开(公告)号:CN117315430A

    公开(公告)日:2023-12-29

    申请号:CN202311595144.1

    申请日:2023-11-28

    Applicant: 华侨大学

    Abstract: 本发明一种面向大范围车辆再辨识的不完备模态特征融合方法,涉及图像处理技术领域,包括:训练包括三通道模型和单通道模型的双模态模型,对可见光车辆图像,采用三通道模型提取主特征,辅以图像灰度化,采用单通道模型提取辅助特征;对红外光车辆图像,采用单通道模型提取主特征,辅以通道复制扩展,采用三通道模型提取辅助特征;将主特征和辅特征叠加获得完整特征,利用KL散度优化完整、主、辅特征三者之间后验概率分布差异,优化特征融合效果。本发明能解决在长时间大范围的监控场景中车辆因活动轨迹复杂多变出现的模态不完备问题,即可见光和红外车辆图像不完备而无法直接实现可见光和红外图像的特征融合问题,提升车辆再辨识准确性。

    基于空间下采样的多描述编码高质量边重建方法

    公开(公告)号:CN111510721B

    公开(公告)日:2022-11-01

    申请号:CN202010278978.X

    申请日:2020-04-10

    Applicant: 华侨大学

    Abstract: 本发明提供了一种基于空间下采样的多描述编码高质量边重建方法,包括,制作数据集:选取视频,通过空间下采样分成两个描述,在量化参数QP值设定下,编码,解码,将解码后的视频和相应的原始视频作为训练集;训练SD‑VSRnet网络:每五帧视频作为网络的输入,依次进行特征提取,恢复高频细节,像素重排,再与输入的中间帧进行跳跃连接得到重建的视频帧,逐帧重建获得最后的重建视频,实现SD‑VSRnet网络的训练。本发明提出的方法制作了适用于空间下采样的多描述编码高质量边重建的数据集,另外,采用视频超分辨率的神经网络,分别测试4种QP值,可以有效提高不同压缩程度的边缘解码视频重建质量。

    一种基于结构相似度的非局部注意力学习方法

    公开(公告)号:CN114972812A

    公开(公告)日:2022-08-30

    申请号:CN202210624115.2

    申请日:2022-06-02

    Abstract: 本发明提供一种基于结构相似度的非局部注意力学习方法,可广泛应用于机器视觉领域,例如图像分割、图像分类、图像识别等。现有非局部注意力方法简单计算不同空域位置的两个信号内积作为二者的相似度度量,并不完全符合人类视觉感知特点。针对这一问题,本发明提出利用结构相似度衡量不同空域位置的信号之间的相似度,在非局部注意力学习方法中充分考虑人类视觉对信号感知三个重要因素,即亮度、对比度和结构。其次,本发明进一步提出多尺度结构相似度度量策略,在不同尺度上更为全面地进行信号相似度度量。因此,本发明能够取得比现有非局部注意力方法更好地注意力学习效果。

    一种采用图形预测的三维点云压缩方法

    公开(公告)号:CN109166160B

    公开(公告)日:2022-07-01

    申请号:CN201811082243.9

    申请日:2018-09-17

    Applicant: 华侨大学

    Abstract: 本发明公开了一种采用图形预测的三维点云压缩方法,属于视频编码领域,方法包括:采用KD树对输入三维点云进行自适应分块;采用KNN算法计算编码单元内每个点的K邻近点;构建每个单元块的图并计算图形平移算子;对每个编码单元的块进行去均值,采用K‑means算法对编码单元进行自适应采样,通过求解优化问题对未采样点进行预测;利用基于KD树的块均值预测算法对每个编码单元块的均值进行预测编码;最后用算术编码器对所有量化的参数和残差进行熵编码。本发明采用图形预测,能够对庞大的三维点云数据进行有效压缩,极大地改善三维点云的传输和存储效率。

    一种基于多深度特征融合网络的车辆再识别方法

    公开(公告)号:CN108875754B

    公开(公告)日:2022-04-05

    申请号:CN201810426492.9

    申请日:2018-05-07

    Applicant: 华侨大学

    Abstract: 本发明涉及一种基于多深度特征融合的车辆再识别方法,包括:提取训练车辆图像的深度ID特征,提取训练车辆图像的深度颜色特征,提取训练车辆图像的深度车型特征,将提取的三种深度特征进行组合,获得融合特征,通过Softmax分类函数对融合后的深度特征进行分类。本发明对输入的车辆图像提取深度ID特征、深度颜色特征和深度车型特征并进行有效地融合,实现三种深度特征的互补,获得更有表征能力的融合特征,从而实现准确的车辆再识别。

    一种基于3D-Gradient引导的屏幕内容视频编码码率控制方法

    公开(公告)号:CN113949872A

    公开(公告)日:2022-01-18

    申请号:CN202111320458.1

    申请日:2021-11-09

    Applicant: 华侨大学

    Abstract: 本发明涉及一种基于3D‑Gradient引导的屏幕内容视频编码码率控制方法,属于视频编码领域。本方法采用3D‑Gradient滤波器同时提取屏幕内容视频序列空域和时域的边缘结构特征以及运动信息,将屏幕内容中空域和时域特征进行融合,获取最终的像素级复杂度因子。通过像素级复杂度因子计算CTU级复杂度因子CF进行CTU级的目标比特分配。利用当前编码帧的参考帧以及重建帧的相似度结合目标比特进行率失真模型的构建,实现目标比特,引导码率控制模型的生成。本发明提出的屏幕内容视频编码码率控制方法能够提高码率控制精度,明显改善重建视频序列的率失真性能,在一定程度上降低视频编码时间复杂度。

    一种基于局部视频活动度的屏幕视频质量识别方法

    公开(公告)号:CN113014916A

    公开(公告)日:2021-06-22

    申请号:CN202110219595.X

    申请日:2021-02-26

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于局部视频活动度的屏幕视频质量识别方法,方法包括:分别对参考和失真屏幕视频序列采用3D‑LOG滤波器提取屏幕特征;计算屏幕区域相似度,基于3D‑LOG池化策略得到屏幕质量分数;分别对参考和失真屏幕视频序列采用3D‑NSS方法提取自然特征;计算自然区域相似度,基于池化策略得到自然质量分数;计算局部视频活动度;基于局部视频活动度结合屏幕和自然质量分数获得最终失真屏幕视频质量评价值。本发明充分考虑到人类视觉系统对于屏幕视频的屏幕和自然内容区域感知度不同且人眼对于边缘特征高度敏感,具有较好的失真屏幕视频质量评价性能。

    一种恰可察觉失真模型阈值计算方法

    公开(公告)号:CN109525847B

    公开(公告)日:2021-04-30

    申请号:CN201811345416.1

    申请日:2018-11-13

    Applicant: 华侨大学

    Abstract: 本发明涉及一种恰可察觉失真模型阈值计算方法,其包括:对原始图像进行DCT变换,计算相应的亮度自适应模块值和空间对比敏感度函数模块值;利用8×8DCT块的频率能量分布特点,对图像的纹理块进行更为细致的分类,获取对比度掩蔽因子,计算出对比度掩蔽模块值;利用DCT系数的空间频率分布提取出当前图像块的纹理特征,计算两个不同块之间的纹理差异,得到不同块的视觉感知调整因子;整合上述模块,得到最终的JND阈值。本发明所提的算法,在保证视觉质量的前提下,所提JND模型能容纳更多的噪声。该模型可广泛用于感知图像/视频编码、水印以及质量评价等。

    一种基于身份和非身份属性交互学习的行人属性识别方法

    公开(公告)号:CN110516569A

    公开(公告)日:2019-11-29

    申请号:CN201910753998.5

    申请日:2019-08-15

    Abstract: 本发明提供一种基于身份和非身份属性交互学习的行人属性识别方法。首先,采用一种具有视角变化鲁棒性的特征学习方法对行人图像进行特征表达;其次,将行人属性分为身份属性和非身份属性,对二者之间的潜在关系进行建模,设计出行人身份属性和非身份属性交互学习的目标函数,利用身份属性的识别优势促进非身份属性识别率的提高,并且利用非身份属性识别率的提高反过来进一步改进身份属性的识别效果。行人属性分为身份属性和非身份属性的潜在关系为:相同身份的行人之间,必然具有相同的非身份属性;非身份属性差异大的行人之间,其身份属性差异一般较大。最后,采用mini-batch随机梯度下降算法对目标函数进行优化,实现行人属性的识别。

Patent Agency Ranking