基于人车部件联合学习的载人电动车再识别方法及系统

    公开(公告)号:CN114266973A

    公开(公告)日:2022-04-01

    申请号:CN202111588195.2

    申请日:2021-12-23

    Applicant: 华侨大学

    Abstract: 本发明提供了一种基于人车部件联合学习的载人电动车再识别方法及系统,所述方法包括:在训练阶段,构建双分支深度学习网络,获取载人电动车图像作为训练图像集对网络进行训练,得到基于人车部件联合学习的载人电动车再识别模型;在测试阶段,使用训练阶段得到的基于人车部件联合学习的载人电动车再识别模型,对查询图像和注册图像集的图像进行特征提取,计算查询图像特征和注册图像特征之间的距离,选取注册图像集中与查询图像距离近的图像,即为载人电动车再识别结果。本发明利用双分支深度学习网络对电动车进行再识别,可有效提高人车识别准确度,并提高整体识别效率,有利于协助交警快速追查电动车肇事者并规范电动车驾驶。

    一种分段密集连接型深度网络构建方法

    公开(公告)号:CN108846475B

    公开(公告)日:2021-10-26

    申请号:CN201810542036.0

    申请日:2018-05-30

    Applicant: 华侨大学

    Abstract: 本发明涉及一种应用于目标检测、目标分类或目标识别系统的分段密集连接型深度网络构建方法,首先把深度网络中各串连续连接的卷积层划分为多个小段;其次,对每个小段内的卷积层进行密集连接,即段内密集连接;然后,对每个小段进行密集连接,即段间密集连接,从而实现了对连续连接的卷积层的分段密集连接。最后,在各串连续连接的卷积层之间配合上最大池化层,并在最后的最大池化层之后配上全连接层,就完成了分段密集连接型深度网络的构建。借助分段密集连接的机制,一方面有利于训练更深的深度网络,进而有利提升深度网络的特征学习能力;另一方面,由于分段划分,各个小段内只包含少数卷积层,能够有效地避免因密集连接所带来的庞大计算量。

    一种针对H.266/VVC帧内预测编码的快速模式选择方法

    公开(公告)号:CN113099223A

    公开(公告)日:2021-07-09

    申请号:CN202110240568.0

    申请日:2021-03-04

    Applicant: 华侨大学

    Abstract: 一种针对H.266/VVC帧内预测编码的快速模式选择方法,包括如下步骤:1)根据结构张量对当前编码CU的纹理复杂度进行判别,若为平坦区域,则进入步骤2),否则进入步骤3);2)第一轮SATD模式粗选只对DC模式、Planar模式和垂直模式进行代价计算,并跳过第二轮SATD模式粗选的扩展角度模式选择;3)根据结构张量的奇异值分解获取主方向特征向量,并依据主方向特征向量进行模式区域的选择,跳过非必要模式代价计算。本发明能够在保持H.266/VVC编码效率的前提下,有效地降低H.266/VVC帧内预测编码计算复杂度。

    一种全参考光场图像质量评价方法

    公开(公告)号:CN108447059B

    公开(公告)日:2021-06-29

    申请号:CN201810311096.1

    申请日:2018-04-09

    Applicant: 华侨大学

    Abstract: 本发明提出一种全参考光场图像质量评价方法。考虑到人眼视觉特性对结构、对比度等较为敏感,在频域里,利用哈尔变换提取高频边缘信息和低频亮度信息,计算频域边缘相似性和亮度相似性;在空域里,提取图像对比度结构特征和亮度特征,分别计算空域对比度结构相似性和亮度相似性;最后将频域和空域信息进行融合得到最终光场图像质量预测分数。该方法计算简单,复杂度低,能很好的评价光场图像质量分数。

    基于帧预测神经网络的多描述视频编码方法和解码方法

    公开(公告)号:CN113038126A

    公开(公告)日:2021-06-25

    申请号:CN202110261181.3

    申请日:2021-03-10

    Applicant: 华侨大学

    Abstract: 基于帧预测神经网络的多描述视频编码方法和解码方法,本发明在编码端将源视频采用时间下采样的方法分为奇数帧和偶数帧,分别将奇数帧和偶数帧组成两个新的序列,通过HEVC编码器进行编码。针对时间下采样所导致的帧丢失问题,采用帧预测神经网络来分别预测对应序列中所丢失的帧。将预测帧与对应序列的已编码视频帧相减获得残差信息,与当前序列已编码信息组成一个描述。将两个描述的码流打包分别通过不同的信道传输到解码端。本发明方法构成的多描述视频编码使码流具有一定的差错恢复能力,解码端可充分利用描述间的相关信息保证解码端在不可靠网络传输下的高质量视频重建。

    一种基于结构相似度的生成对抗网络的红外图像着色方法

    公开(公告)号:CN112365559A

    公开(公告)日:2021-02-12

    申请号:CN202011305117.2

    申请日:2020-11-19

    Applicant: 华侨大学

    Abstract: 本发明涉及一种基于结构相似度的生成对抗网络的红外图像着色方法,构造一个基于结构相似度的生成对抗网络,包括生成器和鉴别器;鉴别器能够区别图像是来自红外图像域或是来自彩色图像域,对生成器采用基于生成对抗网络的损失函数、基于一范或二范的循环一致损失函数和重构损失函数、基于结构相似度的损失函数,使生成器能够生成色彩逼真且边缘清晰的彩色图像;利用预先采集的红外图像和彩色图像将所提出的基于结构相似度的生成对抗网络训练到收敛条件,所获得的生成器即可实现对红外图像的着色。本发明不仅能保留红外成像在夜间拍摄的优势,也能利于人眼能够更好更快的捕捉到图像中的有用信息,充分发挥图像价值,从而促进夜视成像技术的发展。

Patent Agency Ranking