面向变焦摄像系统的自动聚焦调节方法

    公开(公告)号:CN106534676B

    公开(公告)日:2019-03-26

    申请号:CN201610948617.5

    申请日:2016-11-02

    Abstract: 本发明公开了一种面向变焦摄像系统的自动聚焦调节方法,主要解决现有技术自动聚焦精度低、速度慢和鲁棒性较差问题。其技术方案是:1.摄像机在聚焦准备状态结束后进入聚焦调节状态,根据Hi3516C芯片提供的图像清晰度值判断当前图像的离焦状态,进一步根据不同离焦状态确定镜头下一步移动的方向;2.根据镜头变焦值和图像清晰度曲线确定自适应步长;3.按照所确定的镜头移动方向和步长进行自适应步长调节,找到图像清晰度曲线峰值的大概位置;4.在图像清晰度曲线峰值位置附近进行精细峰值调整,将镜头移动到最佳聚焦位置,转入场景监测状态。本发明提升了聚焦精度和鲁棒性,加快了聚焦速度,可用于高清视频会议摄像机的自动聚焦中。

    一种自由视点视频深度图编码的渐进式率失真优化方法

    公开(公告)号:CN105141956B

    公开(公告)日:2018-05-29

    申请号:CN201510481056.8

    申请日:2015-08-03

    Abstract: 本发明涉及一种自由视点视频深度图编码的渐进式率失真优化方法,其包括以下步骤:(1)、对深度图块采用某一编码模式试编码后得到比特数代价,如果大于最小率失真代价Jmin,则淘汰此模式,反之进入步骤(2),(2)、计算出深度图块的失真,加权后与比特数代价相加得到临时率失真代价,如果大于Jmin,则淘汰此模式,反之进入步骤(3),(3)、进入合成虚拟视点循环,每得到一个虚拟视点的失真,加权后与已有的率失真代价相加,如果大于Jmin,则终止此模式的率失真代价计算,否则继续计算下一个虚拟视点的失真,(4)、若虚拟视点全部合成完毕,所得失真大于Jmin,则淘汰此模式,反之则将此模式选为最佳模式。

    面向变焦摄像系统的自动聚焦调节方法

    公开(公告)号:CN106534676A

    公开(公告)日:2017-03-22

    申请号:CN201610948617.5

    申请日:2016-11-02

    CPC classification number: H04N5/23212

    Abstract: 本发明公开了一种面向变焦摄像系统的自动聚焦调节方法,主要解决现有技术自动聚焦精度低、速度慢和鲁棒性较差问题。其技术方案是:1.摄像机在聚焦准备状态结束后进入聚焦调节状态,根据Hi3516C芯片提供的图像清晰度值判断当前图像的离焦状态,进一步根据不同离焦状态确定镜头下一步移动的方向;2.根据镜头变焦值和图像清晰度曲线确定自适应步长;3.按照所确定的镜头移动方向和步长进行自适应步长调节,找到图像清晰度曲线峰值的大概位置;4.在图像清晰度曲线峰值位置附近进行精细峰值调整,将镜头移动到最佳聚焦位置,转入场景监测状态。本发明提升了聚焦精度和鲁棒性,加快了聚焦速度,可用于高清视频会议摄像机的自动聚焦中。

    一种基于神经网络的跨分量色度预测方法及装置

    公开(公告)号:CN115190312B

    公开(公告)日:2024-06-07

    申请号:CN202110363526.6

    申请日:2021-04-02

    Abstract: 本发明公开一种基于神经网络的跨分量色度预测方法及装置,方法包括:获取编码块的相邻区域,编码块包括若干待预测点,相邻区域包括若干参考点;对相邻区域中的参考点进行数据预处理得到若干预测参考点;将预测参考点的相关信息和/或待预测点的相关信息输入神经网络模型实现待预测点色度值的预测,其中,预测参考点的相关信息包括预测参考点的亮度值与色度值中的至少一种,待预测点的相关信息包括待预测点的亮度值、待预测点与预测参考点的亮度差值中的至少一种。本发明通过数据预处理选择与待预测像素相关性强的数据后,使用神经网络进行预测以得到更准确的跨分量预测,在视频编解码中使用统一的预测方法进行分量间预测,降低了编解码复杂度。

    一种色度的DC分量预测以及帧内色度预测方法

    公开(公告)号:CN116760993A

    公开(公告)日:2023-09-15

    申请号:CN202310525763.7

    申请日:2023-05-10

    Abstract: 本发明涉及一种色度的DC分量预测以及帧内色度预测方法,该色度的DC分量预测方法包括:获取当前预测块的亮度样本,以及当前预测块对应的参考样本;根据预设的亮度分组方式对亮度样本和参考样本进行分组;根据亮度样本在每一组的分布情况以及参考样本在对应组的色度的特征值,计算得到当前预测块的色度的DC分量预测值。本发明的色度的DC分量预测方法,可以计算得到更准确的色度DC分量预测值,利用该DC分量预测方法进行帧内色度预测时,可以避免当前预测块的跨分量色度预测值与原始值之间存在较大偏差,从而提高了编解码效率。

    用于多视点深度视频编码的虚拟视点合成失真预测方法

    公开(公告)号:CN106331728B

    公开(公告)日:2019-05-07

    申请号:CN201610802308.7

    申请日:2016-09-06

    Abstract: 本发明公开了一种用于多视点深度视频编码的虚拟视点合成失真预测方法,主要解决现有技术合成失真计算复杂度高、预测不准确的问题。其实现步骤是:1)构建像素级虚拟视点合成失真预测模型;2)获得当前深度编码块的数据块信息;3)利用数据块信息估计由深度图失真所导致的第一合成误差D1,以及由纹理图失真所导致的第二合成误差D2;4)将两个合成误差带入1)构建的合成失真模型,得到像素级合成失真预测值;6)对当前编码深度块所有像素点的合成失真预测值求和,得到虚拟视点合成失真值。本发明减少了预测复杂度,提高了合成失真估计准确性,改善了3D视频的整体编码性能,可用于对任意纹理和深度量化参数QP组合方式的3D视频进行编码。

    用于多视点深度视频编码的拉格朗日乘子修正方法

    公开(公告)号:CN106028046A

    公开(公告)日:2016-10-12

    申请号:CN201610517428.2

    申请日:2016-07-04

    CPC classification number: H04N19/597 H04N19/124 H04N19/177 H04N19/70

    Abstract: 本发明公开了一种用于多视点深度图编码的拉格朗日乘子修正方法,主要解决现有技术中没有考虑到同视点纹理质量对深度图拉格朗日乘子的影响,而导致3D视频的整体编码性能不高的问题。其实现方案是:在多视点深度视频编码前,根据待编码深度视频的量化参数Qd以及同视点纹理视频编码所采用的量化参数Qt,构建修正因子;用该修正因子对现有深度编码所采用的拉格朗日乘子进行修正;将修正后的拉格朗日乘子用于深度图编码的率失真优化过程中。本发明提升了3D视频的整体编码性能,可用于对任意纹理和深度量化参数QP组合方式的3D视频进行编码。

    一种基于神经网络的跨分量色度预测方法及装置

    公开(公告)号:CN115190312A

    公开(公告)日:2022-10-14

    申请号:CN202110363526.6

    申请日:2021-04-02

    Abstract: 本发明公开一种基于神经网络的跨分量色度预测方法及装置,方法包括:获取编码块的相邻区域,编码块包括若干待预测点,相邻区域包括若干参考点;对相邻区域中的参考点进行数据预处理得到若干预测参考点;将预测参考点的相关信息和/或待预测点的相关信息输入神经网络模型实现待预测点色度值的预测,其中,预测参考点的相关信息包括预测参考点的亮度值与色度值中的至少一种,待预测点的相关信息包括待预测点的亮度值、待预测点与预测参考点的亮度差值中的至少一种。本发明通过数据预处理选择与待预测像素相关性强的数据后,使用神经网络进行预测以得到更准确的跨分量预测,在视频编解码中使用统一的预测方法进行分量间预测,降低了编解码复杂度。

Patent Agency Ranking