-
公开(公告)号:CN117315430B
公开(公告)日:2024-03-12
申请号:CN202311595144.1
申请日:2023-11-28
Applicant: 华侨大学
IPC: G06V10/80 , G06V10/764 , G06V10/82
Abstract: 本发明一种面向大范围车辆再辨识的不完备模态特征融合方法,涉及图像处理技术领域,包括:训练包括三通道模型和单通道模型的双模态模型,对可见光车辆图像,采用三通道模型提取主特征,辅以图像灰度化,采用单通道模型提取辅助特征;对红外光车辆图像,采用单通道模型提取主特征,辅以通道复制扩展,采用三通道模型提取辅助特征;将主特征和辅特征叠加获得完整特征,利用KL散度优化完整、主、辅特征三者之间后验概率分布差异,优化特征融合效果。本发明能解决在长时间大范围的监控场景中车辆因活动轨迹复杂多变出现的模态不完备问题,即可见光和红外车辆图像不完备而无法直接实现可见光和红外图像的特征融合问题,提升车辆再辨识准确性。
-
公开(公告)号:CN117315516B
公开(公告)日:2024-02-27
申请号:CN202311616489.0
申请日:2023-11-30
Applicant: 华侨大学
IPC: G06V20/17 , G06N3/042 , G06N3/045 , G06N3/08 , G06T7/00 , G06V10/74 , G06V10/764 , G06V10/80 , G06V10/82
Abstract: 本发明公开了一种基于多尺度注意力相似化蒸馏的无人机检测方法及装置,涉及目标检测领域,包括:构建多尺度注意力图生成模块、教师网络及待训练的学生网络,通过多尺度注意力图生成模块分别将教师网络和学生网络的中间层特征映射转换为教师空间注意力信息和学生空间注意力信息,并建立注意力信息相似度优化损失函数,将注意力信息相似度优化损失函数与全局性的后验概率蒸馏函数以及学生网络的无人机目标分类损失函数和目标框回归损失函数结合以建立总损失函数,基于总损失函数对待训练的学生网络进行训练,得到经训练的学生网络;将图像输入经训练的学生网络,得到无人机检测结果,解决现有技术无人机检测准确率低、实时性差的问题。
-
公开(公告)号:CN117456560A
公开(公告)日:2024-01-26
申请号:CN202311775203.3
申请日:2023-12-22
Applicant: 华侨大学
IPC: G06V40/10 , G06V10/26 , G06V10/44 , G06V10/771 , G06V10/82
Abstract: 本发明公开了一种基于前景感知动态部件学习的行人再辨识方法,涉及人工智能、机器视觉领域,包括:将浅层特征映射解码为前景能量图,利用交叉熵优化前景能量图,使其趋于真实前景标签,再将前景能量图空间划分为若干部件能量块,用各个部件能量块代表相应的浅层特征映射块的当前重要性;结合当前重要性和历史重要性对各浅层特征映射块进行综合重要性计算并排序,根据综合重要性排序优先选择高综合重要性的浅层特征映射块参与行人再辨识模型训练,从而减少来自背景区域的低综合重要性的浅层特征映射块参与行人再辨识模型训练的机会,达到抑制背景区域对行人辨识的干扰,提升行人再辨识准确性,可广泛应用于智慧城市场景中的城市安防系统。
-
公开(公告)号:CN116612445A
公开(公告)日:2023-08-18
申请号:CN202310891062.5
申请日:2023-07-20
Applicant: 华侨大学
IPC: G06V20/54 , G06V10/762 , G06V10/74 , G06V10/764 , G06V10/774 , G06V10/778 , G06V10/82 , G06N3/088
Abstract: 本发明公开了一种基于自适应聚类和困难样本加权的无监督车辆再辨识方法,首先,利用当前聚类参数计算最合适的半径值,提升聚类伪标签对车辆样本噪声的鲁棒性;其次,记忆模块记录所有车辆样本特征向量,利用距离作为车辆样本困难程度加权依据,改善模型对困难车辆样本关注力不足的问题;最后,利用加权困难车辆样本结合对比学习方法训练车辆再辨识模型。本发明可广泛应用于智慧交通和智慧安防中的智能视频监控系统。
-
公开(公告)号:CN115995065A
公开(公告)日:2023-04-21
申请号:CN202310149452.5
申请日:2023-02-22
Applicant: 华侨大学 , 厦门亿联网络技术股份有限公司
IPC: G06V20/54 , G06V10/82 , G06N3/08 , G06N3/0464
Abstract: 本发明提供一种基于动态卷积Transformer的车辆再辨识方法;不同于各个局部区域共用卷积核,本发明中各个局部区域共用一个卷积核池,由一个全连接人工神经子网从各个局部区域各自学习得到一组系数,利用各个局部区域对应的系数将卷积核池中的卷积核进行线性融合获得各个局部区域的专用卷积核,用于学习各个局部区域的特征。因此,本发明能够根据各个局部区域自身的表征特性自适应学习相应的卷积核,能够更好学习车辆图像的局部特征,从而有利于提升车辆再辨识性能。
-
公开(公告)号:CN113011281A
公开(公告)日:2021-06-22
申请号:CN202110220509.7
申请日:2021-02-26
Applicant: 华侨大学
Abstract: 本发明公开一种基于3D‑DOG特征的光场图像质量识别方法,包括:将输入参考和失真光场图像转化为参考和失真光场序列;分别对参考和失真光场序列采用3D‑DOG滤波器提取3D‑DOG特征;基于3D‑DOG特征计算参考和失真光场序列的相似度;使用3D‑DOG特征池化策略计算得到光场图像质量分数。本发明充分考虑到人眼视觉系统对二维边缘信息和三维几何结构的敏感度,采用3D‑DOG特征有效地描述光场图像的场景边缘信息和结构变化,具有较好的光场图像质量评价性能。
-
公开(公告)号:CN111432221A
公开(公告)日:2020-07-17
申请号:CN202010242715.3
申请日:2020-03-31
Applicant: 华侨大学
IPC: H04N19/70 , H04N19/42 , H04N19/85 , H04N19/147
Abstract: 一种基于信息复用的HEVC多描述视频编码方法,首选将序列进行下采样分为多个子序列,并将序列进行分类,利用序列间的相关性,以复用编码单元的分层深度、预测单元的最佳模式和预测向量方式编码,以及采用CU-SKIP模式、CU-INTER模式、CU-INTRA模式进行编码,有效地提高HEVC编码的容错能力,且只需要对输入视频序列的一个子序列进行编码预测,大大降低编码的计算复杂度,无需传输间接编码子序列各编码单元的编码树结构、预测模式及预测向量,因此可以大幅度降低多描述编码的冗余,提高编码效率。
-
公开(公告)号:CN111212289A
公开(公告)日:2020-05-29
申请号:CN202010031829.3
申请日:2020-01-13
Applicant: 华侨大学
IPC: H04N19/593 , H04N19/96 , H04N19/20
Abstract: 本发明涉及基于DCT能量分布与梯度特征的屏幕内容视频快速编码方法,属于视频编码领域。本方法考虑到屏幕内容和自然内容视频不同特性,利用屏幕内容视频边缘锐利和具有大面积均匀平坦区域的特点,将编码树单元分成三类:自然内容CTU,简单屏幕内容CTU和复杂屏幕内容CTU。然后根据不同的CTU类型提出各自的模式选择方案,自适应地跳过不必要的预测模式的率失真代价计算。本发明能够减少编码器计算开销,在保持编码性能和视频质量基本不变的情况下,减少编码时间。
-
公开(公告)号:CN106954077B
公开(公告)日:2020-03-31
申请号:CN201710208697.5
申请日:2017-03-31
Applicant: 华侨大学
IPC: H04N19/96 , H04N19/124 , H04N19/182 , H04N19/132
Abstract: 本发明涉及一种基于结构特征的HEVC码率控制方法,1)提取视频的帧图像,计算帧图像的编码树单元的2×2区域降采集特征图;2)基于各编码树单元的降采集特征图,计算当前各编码树单元的结构强度;3)基于当前各编码树单元的结构强度,计算当前帧图像的结构强度;4)基于各编码树单元的结构强度与当前帧图像的结构强度,计算各编码树单元的码率分配比重;5)根据各编码树单元的码率分配比重计算各编码树单元的量化参数。本发明利用编码树单元降采样特征图的结构强度来表征编码树单元的结构强度,很好地反应该编码树单元的感知特性,准确引导目标码率分配,获得更符合人眼特性的编码视频。
-
公开(公告)号:CN110913233A
公开(公告)日:2020-03-24
申请号:CN201911191837.8
申请日:2019-11-28
Applicant: 华侨大学
IPC: H04N19/593 , H04N19/597 , H04N19/70 , H04N19/96 , H04N19/176 , G06K9/62 , G06N3/08 , G06N3/04
Abstract: 本发明涉及一种3D-HEVC深度图帧内快速编码的方法,采用多分支卷积神经网络结构,对应多种不同深度等级,可以有效区分不同深度等级CU的分类结果。本发明可以直接测试每一帧所有CTU中不同深度等级CU的分类结果,而不需要对每个CU进行测试,进而能够有效降低网络预测过程的计算时间。
-
-
-
-
-
-
-
-
-