一种立体全景图像客观质量评估系统及方法

    公开(公告)号:CN116664507A

    公开(公告)日:2023-08-29

    申请号:CN202310613746.9

    申请日:2023-05-29

    Abstract: 一种立体全景图像客观质量评估系统及方法,涉及立体全景图像无参考质量评估技术领域。解决现有立体全景图像客观评价方法,普遍存在普适性较弱,质量评价准确度不高,且耗时长、成本高的问题。方法为:根据立体全景图像的左、右视图,获得N个左、右视口图像,并进行处理得到最终的左局部特征和最终的右局部特征;对左、右视图的ERP图像进行处理,获得左视图全局特征和右视图全局特征;将最终的左局部特征与左视图全局特征进行线性组合,得到左融合特征;将最终的右局部特征与右视图全局特征进行线性组合,得到右融合特征;并将两者进行处理获得左右互注意图,并对互注意图进行映射,获得质量评价分数。本发明适用于立体全景图像的质量评估。

    JPEG图像的无损二次压缩方法

    公开(公告)号:CN109672891B

    公开(公告)日:2021-03-30

    申请号:CN201811590708.1

    申请日:2018-12-25

    Abstract: 本发明是JPEG图像的无损二次压缩方法,属于图像无损压缩技术领域。所述方法通过提取原始JPEG图像的相关信息,对编码块进行预测,并对预测块进行变换量化后,得到预测块的变换量化系数,并将此预测块的变换量化系数与从原始JPEG图像得到的当前编码块的原始变换量化系数做差,并对差值进行熵编码,从而在保证JPEG图像质量没有损失的同时,实现了对JPEG图像的有效压缩。本发明的有益效果是,本发明相比现有压缩方法对JPEG图像实现了更高的压缩性能,并可以避免JPEG图像质量的损失。本发明基于JPEG二次编码的特点对编码过程进行了针对性的设计,提出了新的编码块划分和遍历方法,以及新的熵编码预处理方法等,从而可以进一步提升编码性能。

    基于动态字节长度分配的卷积神经网络的图像压缩系统

    公开(公告)号:CN107481295A

    公开(公告)日:2017-12-15

    申请号:CN201710691448.6

    申请日:2017-08-14

    Abstract: 基于动态字节长度分配的卷积神经网络的图像压缩系统,属于图像压缩技术领域。所述图像压缩系统:字节长度分配图网络将卷积码编码器的中间特征,即字节长度特征,作为其输入,建立基于待压缩图像内容的字节长度分配图,并根据该字节长度分配图建立字节长度分配图模板。二值器将卷积码编码器输出的初步编码特征图转换为编码二值特征图,即离散编码。在进入卷积熵编码器之前,所述离散编码先与字节长度分配图模板进行点乘裁剪。因此,对于本发明所述的图像压缩系统,其待熵编码的离散编码随待压缩图像的局部信息内容的变化而变化,与待压缩图像的配合度更高,具有更好的压缩效果。本发明所述的图像压缩系统适用于对图像进行压缩和解压。

    基于多模态先验知识融合的少样本工业异常检测方法

    公开(公告)号:CN119831963A

    公开(公告)日:2025-04-15

    申请号:CN202411914324.6

    申请日:2024-12-24

    Abstract: 基于多模态先验知识融合的少样本工业异常检测方法,属于计算机视觉中的工业异常检测领域。解决了传统的异常检测方法未能充分考虑不同样本间的细微差异、以及缺乏对全局信息的有效利用的问题。本发明引入了一种创新的视觉‑语言先验融合方法,这一方法的核心在于两项主要创新:构建视觉‑语言先验融合模块和类内平衡模块。通过对视觉‑语言信息以及参考样本图像所对应的图像级参考特征和图块级参考特征图的有效利用,引入视觉‑语言先验融合和类内特征平衡两个核心创新组件,融合视觉先验与语言先验信息、并平衡类内的变化,实现更精准的工业异常检测。本发明主要应用在工业异常检测。

    一种针对数据幅值范围已知的数据流进行编码的方法

    公开(公告)号:CN109672690B

    公开(公告)日:2021-02-19

    申请号:CN201910085839.2

    申请日:2019-01-29

    Abstract: 本发明提出一种针对数据幅值范围已知的数据流进行编码的方法。所述方法包括数据流的统计分布、子集划分设计、实际编码和实际解码步骤。本发明的子集编码方法可以有效编码已知幅值范围的数据流,相比现有方法可以较大程度提高编码性能,并且具有较低的编码复杂度,是一个实际可用的编码方法。并且本方法的应用范围不限于已知幅值范围已知的数据流,在编码幅值范围不确定的数据流时,也可以与现有编码方法结合使用,应用前景广阔。

    一种针对数据幅值范围已知的数据流进行编码的方法

    公开(公告)号:CN109672690A

    公开(公告)日:2019-04-23

    申请号:CN201910085839.2

    申请日:2019-01-29

    CPC classification number: H04L69/04 H04L65/607

    Abstract: 本发明提出一种针对数据幅值范围已知的数据流进行编码的方法。所述方法包括数据流的统计分布、子集划分设计、实际编码和实际解码步骤。本发明的子集编码方法可以有效编码已知幅值范围的数据流,相比现有方法可以较大程度提高编码性能,并且具有较低的编码复杂度,是一个实际可用的编码方法。并且本方法的应用范围不限于已知幅值范围已知的数据流,在编码幅值范围不确定的数据流时,也可以与现有编码方法结合使用,应用前景广阔。

    混合视频编码标准中色度分量预测方法

    公开(公告)号:CN105306944B

    公开(公告)日:2018-07-06

    申请号:CN201510861687.2

    申请日:2015-11-30

    Abstract: 混合视频编码标准中色度分量预测方法,属于视频编码领域。本发明的目的是为了有效的去除视频中色度分量与亮度分量以及色度分量之间的相关性,而提出一种混合视频编码标准中色度分量预测方法,以进一步提升视频编码的性能。在通过线性模型进行色度分量预测时,利用当前编码块周围重建的像素点来计算线性模式的参数;在进行参数计算时,增加周围有效像素点,移除周围不可用的像素点;根据得到的参数,对于Cb色度分量,通过已重建的亮度分量Y对其进行预测;而对于Cr色度分量,通过已重建的亮度分量Y和已重建的色度分量Cb对其进行预测。本发明通过块周围有效的像素点计算模型参数,以及通过亮度分量Y和色度分量Cb自适应地对色度分量Cr进行预测,使得编码效率得到进一步提高。

    一种多视点视频编码中的视差矢量获取方法

    公开(公告)号:CN104394417B

    公开(公告)日:2017-07-28

    申请号:CN201410777487.4

    申请日:2014-12-15

    Abstract: 一种多视点视频编码中的视差矢量获取方法,本发明涉及视差矢量获取方法。本发明解决依赖于当前帧中的当前块的空域邻近块,影响编码过程中的并行性以及得到的当前块的预测信息不够准确的问题而提出的一种多视点视频编码标准中的视差矢量获取方法。该方法是通过一、划分为L*W单元区域;二、划分为l*w的单元;三、利用视差矢量的均值、中值、最大值、最小值或者加权平均值获取L*W的单元区域的视差矢量;四、预测当前块的运动矢量;五、得到视间参考帧对应的视差信息;六、将步骤三获取的L*W单元区域的视差矢量用于加权模式中得到视间参考帧对应的视差信息;七、得到当前块的像素值。本发明应用于视差矢量获取领域。

    视频压缩中变换系数的上下文建模方法

    公开(公告)号:CN105141966A

    公开(公告)日:2015-12-09

    申请号:CN201510547323.7

    申请日:2015-08-31

    Abstract: 视频压缩中变换系数的上下文建模方法,本发明涉及变换系数的上下文建模技术。本发明是为了解决HEVC中所采用的上下文建模技术不能准确地预测变换系数的统计特性的问题。本发明在当前变换系数为bin0、bin1或bin2的上下文建模过程,使用了当前变换系数的位置信息和当前变换系数的局部模板中非零变换系数信息,同时还利用变换系数在编码组内的位置对亮度分量的变换系数块的编码组进行划分,利用变换系数在变换系数块内的位置对色度分量的变换系数块进行划分,最终实现上下文建模。本发明更加准确地预测变换系数的统计特性,提高了变换系数的压缩效率。本发明应用于视频编码领域。

    一种基于深度神经网络的帧间预测方法

    公开(公告)号:CN108833925B

    公开(公告)日:2020-09-11

    申请号:CN201810798399.0

    申请日:2018-07-19

    Abstract: 本发明提出了一种混合视频编解码系统中基于深度神经网络的帧间预测方法,属于帧间预测技术领域。所述方法通过借助当前块和参考块的周围相邻像素,利用深度神经网络获得一个更准确的预测块,从而使帧间预测性能得到提升。本发明的有益特点为,区别于基于传统帧间预测方法,本发明是基于深度神经网络的方法;区别于现有的仅针对于混合视频编解码系统中图像块本身作为输入的深度神经网络方法,本发明的深度神经网络输入是多个输入,包含非方形区域,这是区别于普通卷积神经网络的贡献所在。

Patent Agency Ranking