一种H.264/SVC的自适应层间纹理预测方法

    公开(公告)号:CN101674475A

    公开(公告)日:2010-03-17

    申请号:CN200910084021.5

    申请日:2009-05-12

    Abstract: 本发明公开了一种H.264/SVC编码中的自适应层间纹理预测方法,在编码当前空间增强层的每个帧内片slice时,包括:为每个当前层像素确定对应的16个参考层像素,并利用2维维纳滤波器,对该16个参考层像素进行插值滤波,得到相应当前层像素的层间纹理预测值,并将2维维纳滤波器系数传输给解码端。相应地,在解码端对当前空间增强层的每个帧内片进行处理时,根据编码端发送的滤波器系数,对每一当前层像素对应的16个参考层像素进行插值滤波,得到该当前层像素的层间纹理预测值。应用本发明,能够提高层间纹理预测的性能和SVC空间分级编码效率。

    基于泰勒解耦和记忆单元校正的视频预测方法

    公开(公告)号:CN113132737B

    公开(公告)日:2024-12-06

    申请号:CN202110431011.5

    申请日:2021-04-21

    Abstract: 本发明涉及基于泰勒解耦和记忆单元校正的视频预测方法,属于计算机视觉视频技术领域。针对具有时序相干性的自监督视频预测任务,本发明利用分而治之的思想,将视频帧在高维空间上分解为泰勒分量和残差分量,然后再分别对这两部分进行时序上的推导,最后通过融合这两部分的时序推导信息来预测未来的视频帧。其中泰勒分量只利用第一帧的信息进行时序推导,用来挖掘出复杂的视频序列动态数据中存在的物理规律,并用融合了所有之前的帧信息的记忆单元对时序推导的泰勒分量进行校正,用来模拟视频序列中的额外的变量。残差分量的时序推导用简单的3层ConvLSTM实现。实验结果表明,本发明可以有效的进行长距离的视频预测,并在不同的数据集上也有不错的泛化能力。

    基于并行视觉自注意力模型的轻量级高动态范围图像合成方法

    公开(公告)号:CN118674635A

    公开(公告)日:2024-09-20

    申请号:CN202410579346.5

    申请日:2024-05-10

    Abstract: 本发明提出了轻量级的基于并行视觉自注意力模型(Parallel Vision Transformer)的多曝光低动态范围(LDR)图像合成高质量的无鬼影高动态范围(HDR)图像的方法,包括以下步骤:1)首先使用卷积层和空间注意力模块从输入的三张不同曝光值的LDR图像中提取低层特征。2)然后将低层特征分割成不重叠的图像块。3)接着送入并行视觉自注意力模块,有效地捕捉图像中的特征和信息。4)最后通过卷积层和激活函数合成最终的HDR图像。本发明以模型的并行架构使网络变得更宽且更深,通过更快的速度和更少的计算资源把三张不同曝光的LDR图像合成高质量的无鬼影HDR图像,这使得该方法非常适合部署在各种边缘设备上。

    基于多视角特征融合的行人重识别方法

    公开(公告)号:CN113688856A

    公开(公告)日:2021-11-23

    申请号:CN202110314091.6

    申请日:2021-03-24

    Abstract: 本发明涉及基于多图像特征融合的行人重识别方法,属于计算机视觉的图像检索领域。第一步,利用深度卷积网络对测试集行人图像进行原始的特征提取;第二步,计算特征间的相似度,利用k互近邻构造图;第三步,沿着图进行信息传递,将聚合的特征与原始特征相结合;第四步,计算检测图像与待检测集的相似度,排序得到重识别结果。本发明设计合理,考虑到了不同图像间的信息交互,提高了特征的鲁棒性,从而提高了识别的准确率。

    基于超特征融合与多尺度金字塔网络的目标检测方法

    公开(公告)号:CN109034210B

    公开(公告)日:2021-10-12

    申请号:CN201810721716.9

    申请日:2018-07-04

    Abstract: 本发明涉及一种基于超特征融合与多尺度金字塔网络的目标检测方法,包括利用深度卷积神经网络提取具有不同特征信息的分层多尺度特征图;进行超特征融合;构建新的多尺度金字塔网络;根据不同层分别构建不同大小和长宽比的目标候选框;构建一个新的用于多特征提取且能够防止梯度消失的卷积模块;利用多任务损失函数对多类别分类器和边界框回归器进行联合训练优化实现图像分类和目标定位功能。本发明利用深度卷积网络对目标的特征提取能力,考虑超特征融合方法改善特征表达能力,生成了一个新的模块防止梯度消失而且能更有效地帮助训练和提取特征,构建了用于目标检测的全卷积神经网络,提高了算法的检测精度,获得了良好的目标检测结果。

    基于多路径密集特征融合全卷积网络的目标检测方法

    公开(公告)号:CN108846446B

    公开(公告)日:2021-10-12

    申请号:CN201810721733.2

    申请日:2018-07-04

    Abstract: 本发明涉及一种基于多路径密集特征融合全卷积网络的目标检测方法,利用深度卷积神经网络提取具有不同特征信息的分层多尺度特征图;利用自底向上的旁路连接进行自下而上的特征融合;利用自顶向下的密集旁路连接进行自上而下的密集特征融合;构建不同大小和长宽比的目标候选框;利用二分类器减少目标候选框中的简单背景样本,并利用多任务损失函数对二分类器、多类别分类器和边界框回归器进行联合优化。本发明基于深度卷积神经网络提取图像特征,利用多路径密集特征融合方法改善特征表达能力,构建了用于目标检测的全卷积网络,提出了减少冗余简单背景样本和多任务损失联合优化的策略,提高了算法的检测精度,获得了良好的目标检测结果。

    基于泰勒解耦和记忆单元校正的视频预测方法

    公开(公告)号:CN113132737A

    公开(公告)日:2021-07-16

    申请号:CN202110431011.5

    申请日:2021-04-21

    Abstract: 本发明涉及基于泰勒解耦和记忆单元校正的视频预测方法,属于计算机视觉视频技术领域。针对具有时序相干性的自监督视频预测任务,本发明利用分而治之的思想,将视频帧在高维空间上分解为泰勒分量和残差分量,然后再分别对这两部分进行时序上的推导,最后通过融合这两部分的时序推导信息来预测未来的视频帧。其中泰勒分量只利用第一帧的信息进行时序推导,用来挖掘出复杂的视频序列动态数据中存在的物理规律,并用融合了所有之前的帧信息的记忆单元对时序推导的泰勒分量进行校正,用来模拟视频序列中的额外的变量。残差分量的时序推导用简单的3层ConvLSTM实现。实验结果表明,本发明可以有效的进行长距离的视频预测,并在不同的数据集上也有不错的泛化能力。

    基于参考亮度指标指导的低照度可调节亮度增强方法

    公开(公告)号:CN112465726A

    公开(公告)日:2021-03-09

    申请号:CN202011437884.9

    申请日:2020-12-07

    Abstract: 本发明涉及一种基于参考亮度指标指导的低照度可调节亮度增强方法,属于计算机视觉图像技术领域。第一步,通过卷积、下采样和全局平均池化等方式,对输入暗光图像和参考亮度指标进行特征提取,得到特征向量;第二步,将特征向量分解为亮度和内容特征分量,组合暗光图像的内容分量和参考亮度指标的亮度分量,实现特征重组;第三步,通过转置卷积、上采样和跳连等方式,对重组的特征向量进行重建。本发明设计合理,充分考虑了不同应用场景或用户对光照的不同需求,高效地利用并保留了图像的亮度和内容信息,另外网络复杂度较低,在取得较好亮度增强效果的同时,保持了较快的运行速度,整体在暗光图像可调节亮度增强上取得了较好的效果。

    一种基于异构分离卷积核的模型压缩与加速方法

    公开(公告)号:CN111612145A

    公开(公告)日:2020-09-01

    申请号:CN202010442785.3

    申请日:2020-05-22

    Abstract: 本发明针对卷积特征图存在大量的相似性这一现象,提出了SPConv,一种基于异构分离卷积核的模型压缩与加速方法。SPConv将输入特征图分为“有代表性的通道”和“冗余的通道”两部分,并利用计算量较大但是特征提取能力强的卷积核来提取“有代表性的通道”中存有的重要本质信息;而利用计算开销非常小的卷积核来提取“冗余通道”中隐藏的微小细节信息。然后二者再通过本发明设计的“无参数量的特征融合方法”进行特征融合。本发明设计的SPConv是一个即插即用的卷积模块,可以在当前网络架构中直接进行替代。在图片分类和目标检测数据数据集上的实验表明本发明保证了在参数量和浮点数计算量大幅下降的情况下,其模型性能和在GPU上的推理速度均超过了基准方法。

Patent Agency Ranking