一种H.264/SVC的自适应层间纹理预测方法

    公开(公告)号:CN101674475B

    公开(公告)日:2011-06-22

    申请号:CN200910084021.5

    申请日:2009-05-12

    Abstract: 本发明公开了一种H.264/SVC编码中的自适应层间纹理预测方法,在编码当前空间增强层的每个帧内片slice时,包括:为每个当前层像素确定对应的16个参考层像素,并利用2维维纳滤波器,对该16个参考层像素进行插值滤波,得到相应当前层像素的层间纹理预测值,并将2维维纳滤波器系数传输给解码端。相应地,在解码端对当前空间增强层的每个帧内片进行处理时,根据编码端发送的滤波器系数,对每一当前层像素对应的16个参考层像素进行插值滤波,得到该当前层像素的层间纹理预测值。应用本发明,能够提高层间纹理预测的性能和SVC空间分级编码效率。

    一种用于空间可分级视频编码的编码模式选择方法

    公开(公告)号:CN101572817B

    公开(公告)日:2011-01-05

    申请号:CN200910085616.2

    申请日:2009-05-26

    Abstract: 本发明公开了一种用于SVC的编码模式选择方法,预先将所有编码模式划分为三个子集,在编码空间增强层的当前宏块时,根据空间增强层与参考层的层间量化参数差,为所有编码模式设置对应的遍历优先级;按照遍历优先级由高到低的顺序,遍历所有可用编码模式,确定当前遍历的编码模式的率失真代价,并判断该率失真代价是否小于预先设置的阈值,若是,则将当前遍历的编码模式作为所述当前宏块的编码模式,停止遍历;否则,遍历下一可用编码模式;若所有可用编码模式的率失真代价均不小于所述阈值,则选择率失真代价最小的编码模式作为所述当前宏块的编码模式。应用本发明,能够在保证编码压缩效率不受大的影响下,提高编码模式选择的速度。

    一种H.264/SVC的自适应层间纹理预测方法

    公开(公告)号:CN101674475A

    公开(公告)日:2010-03-17

    申请号:CN200910084021.5

    申请日:2009-05-12

    Abstract: 本发明公开了一种H.264/SVC编码中的自适应层间纹理预测方法,在编码当前空间增强层的每个帧内片slice时,包括:为每个当前层像素确定对应的16个参考层像素,并利用2维维纳滤波器,对该16个参考层像素进行插值滤波,得到相应当前层像素的层间纹理预测值,并将2维维纳滤波器系数传输给解码端。相应地,在解码端对当前空间增强层的每个帧内片进行处理时,根据编码端发送的滤波器系数,对每一当前层像素对应的16个参考层像素进行插值滤波,得到该当前层像素的层间纹理预测值。应用本发明,能够提高层间纹理预测的性能和SVC空间分级编码效率。

    基于泰勒解耦和记忆单元校正的视频预测方法

    公开(公告)号:CN113132737B

    公开(公告)日:2024-12-06

    申请号:CN202110431011.5

    申请日:2021-04-21

    Abstract: 本发明涉及基于泰勒解耦和记忆单元校正的视频预测方法,属于计算机视觉视频技术领域。针对具有时序相干性的自监督视频预测任务,本发明利用分而治之的思想,将视频帧在高维空间上分解为泰勒分量和残差分量,然后再分别对这两部分进行时序上的推导,最后通过融合这两部分的时序推导信息来预测未来的视频帧。其中泰勒分量只利用第一帧的信息进行时序推导,用来挖掘出复杂的视频序列动态数据中存在的物理规律,并用融合了所有之前的帧信息的记忆单元对时序推导的泰勒分量进行校正,用来模拟视频序列中的额外的变量。残差分量的时序推导用简单的3层ConvLSTM实现。实验结果表明,本发明可以有效的进行长距离的视频预测,并在不同的数据集上也有不错的泛化能力。

    基于并行视觉自注意力模型的轻量级高动态范围图像合成方法

    公开(公告)号:CN118674635A

    公开(公告)日:2024-09-20

    申请号:CN202410579346.5

    申请日:2024-05-10

    Abstract: 本发明提出了轻量级的基于并行视觉自注意力模型(Parallel Vision Transformer)的多曝光低动态范围(LDR)图像合成高质量的无鬼影高动态范围(HDR)图像的方法,包括以下步骤:1)首先使用卷积层和空间注意力模块从输入的三张不同曝光值的LDR图像中提取低层特征。2)然后将低层特征分割成不重叠的图像块。3)接着送入并行视觉自注意力模块,有效地捕捉图像中的特征和信息。4)最后通过卷积层和激活函数合成最终的HDR图像。本发明以模型的并行架构使网络变得更宽且更深,通过更快的速度和更少的计算资源把三张不同曝光的LDR图像合成高质量的无鬼影HDR图像,这使得该方法非常适合部署在各种边缘设备上。

    基于多视角特征融合的行人重识别方法

    公开(公告)号:CN113688856A

    公开(公告)日:2021-11-23

    申请号:CN202110314091.6

    申请日:2021-03-24

    Abstract: 本发明涉及基于多图像特征融合的行人重识别方法,属于计算机视觉的图像检索领域。第一步,利用深度卷积网络对测试集行人图像进行原始的特征提取;第二步,计算特征间的相似度,利用k互近邻构造图;第三步,沿着图进行信息传递,将聚合的特征与原始特征相结合;第四步,计算检测图像与待检测集的相似度,排序得到重识别结果。本发明设计合理,考虑到了不同图像间的信息交互,提高了特征的鲁棒性,从而提高了识别的准确率。

    基于超特征融合与多尺度金字塔网络的目标检测方法

    公开(公告)号:CN109034210B

    公开(公告)日:2021-10-12

    申请号:CN201810721716.9

    申请日:2018-07-04

    Abstract: 本发明涉及一种基于超特征融合与多尺度金字塔网络的目标检测方法,包括利用深度卷积神经网络提取具有不同特征信息的分层多尺度特征图;进行超特征融合;构建新的多尺度金字塔网络;根据不同层分别构建不同大小和长宽比的目标候选框;构建一个新的用于多特征提取且能够防止梯度消失的卷积模块;利用多任务损失函数对多类别分类器和边界框回归器进行联合训练优化实现图像分类和目标定位功能。本发明利用深度卷积网络对目标的特征提取能力,考虑超特征融合方法改善特征表达能力,生成了一个新的模块防止梯度消失而且能更有效地帮助训练和提取特征,构建了用于目标检测的全卷积神经网络,提高了算法的检测精度,获得了良好的目标检测结果。

    基于多路径密集特征融合全卷积网络的目标检测方法

    公开(公告)号:CN108846446B

    公开(公告)日:2021-10-12

    申请号:CN201810721733.2

    申请日:2018-07-04

    Abstract: 本发明涉及一种基于多路径密集特征融合全卷积网络的目标检测方法,利用深度卷积神经网络提取具有不同特征信息的分层多尺度特征图;利用自底向上的旁路连接进行自下而上的特征融合;利用自顶向下的密集旁路连接进行自上而下的密集特征融合;构建不同大小和长宽比的目标候选框;利用二分类器减少目标候选框中的简单背景样本,并利用多任务损失函数对二分类器、多类别分类器和边界框回归器进行联合优化。本发明基于深度卷积神经网络提取图像特征,利用多路径密集特征融合方法改善特征表达能力,构建了用于目标检测的全卷积网络,提出了减少冗余简单背景样本和多任务损失联合优化的策略,提高了算法的检测精度,获得了良好的目标检测结果。

Patent Agency Ranking