基于3D‑SUSAN算子的三维模型感兴趣点提取方法

    公开(公告)号:CN106652048A

    公开(公告)日:2017-05-10

    申请号:CN201611260181.7

    申请日:2016-12-30

    CPC classification number: G06T19/20

    Abstract: 本发明提出一种基于3D‑SUSAN角点算子的三维模型感兴趣点提取方法。本发明首先读取三维模型顶点,并简化模型顶点以及模型网格化,计算每个顶点的曲率。再通过高斯滤波处理每个顶点的曲率,进行去噪处理。接着确定一个中心点并取中心点周围的36个邻居点,若中心顶点与邻居顶点的曲率差小于曲率相似度阈值,则进入下一步;若每个顶点的USAN值小于几何阈值,则该中心顶点就是兴趣点。最后对本发明所提出的基于3D‑SUSAN角点算子提取的三维模型感兴趣点从错误率、缺失率、误差率进行评估。本发明不仅可以提取三维模型兴趣点而且仍保留了SUSAN的抗噪能力强、计算量小效率高、性能稳定的优点。

    基于边缘复杂度的三维视频编码深度图内部模式选择方法

    公开(公告)号:CN105791862A

    公开(公告)日:2016-07-20

    申请号:CN201610162205.9

    申请日:2016-03-21

    CPC classification number: H04N19/597 H04N13/139 H04N2013/0085

    Abstract: 本发明提供了一种基于边缘复杂度的三维视频编码深度图内部模式选择方法。本发明首先在3D?HEVC软件基础上对已划分的深度图预测单元利用边缘检测算子进行计算;若当前预测单元的边缘点大于一定阈值,则判断该PU块存在边缘;在PU块存在边缘的条件下统计边缘像素点的边缘方向,将边缘方向分为4个方向;若此预测单元统计得方向个数,则将intra_Wedge模式加入模式候选列表,若,则将intra_Contour模式加入候选列表;若边缘点个数小于阈值,则针对深度图的内部编码模式DMM将不会加入到模式候选列表中。本发明在保证编码质量的条件下节约了编码计算量与时间,快速决定3D?HEVC深度图内部编码模式。

    一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法

    公开(公告)号:CN106780441B

    公开(公告)日:2020-01-10

    申请号:CN201611078458.4

    申请日:2016-11-30

    Abstract: 本发明涉及一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法。本发明分为平面图像质量测量和立体感知质量测量两部分。平面图像质量测量:首先对所有左右参考图像进行字典学习得到字典;然后将所有参考与失真图像在对应字典上求取稀疏系数矩阵,并计算稀疏系数相似度;最后利用立体掩蔽效应,将左右失真图像质量进行融合得到平面图像质量。立体感知质量测量:对参考图像的视差图进行字典学习,再将参考图和失真图的视差图在对应字典上求稀疏系数矩阵,得到立体感知质量。最后将平面和立体感知质量相融合得到立体图像质量。本发明方法考虑了人眼视觉特性,准确地测量了立体图像质量。

    基于边缘复杂度的三维视频编码深度图内部模式选择方法

    公开(公告)号:CN105791862B

    公开(公告)日:2018-09-14

    申请号:CN201610162205.9

    申请日:2016-03-21

    Abstract: 本发明提供了一种基于边缘复杂度的三维视频编码深度图内部模式选择方法。本发明首先在3D‑HEVC软件基础上对已划分的深度图预测单元利用边缘检测算子进行计算;若当前预测单元的边缘点大于一定阈值,则判断该PU块存在边缘;在PU块存在边缘的条件下统计边缘像素点的边缘方向,将边缘方向分为4个方向;若此预测单元统计得方向个数,则将intra_Wedge模式加入模式候选列表,若,则将intra_Contour模式加入候选列表;若边缘点个数小于阈值,则针对深度图的内部编码模式DMM将不会加入到模式候选列表中。本发明在保证编码质量的条件下节约了编码计算量与时间,快速决定3D‑HEVC深度图内部编码模式。

    基于3D-SUSAN算子的三维模型感兴趣点提取方法

    公开(公告)号:CN106652048B

    公开(公告)日:2020-07-14

    申请号:CN201611260181.7

    申请日:2016-12-30

    Abstract: 本发明提出一种基于3D‑SUSAN角点算子的三维模型感兴趣点提取方法。本发明首先读取三维模型顶点,并简化模型顶点以及模型网格化,计算每个顶点的曲率。再通过高斯滤波处理每个顶点的曲率,进行去噪处理。接着确定一个中心点并取中心点周围的36个邻居点,若中心顶点与邻居顶点的曲率差小于曲率相似度阈值,则进入下一步;若每个顶点的USAN值小于几何阈值,则该中心顶点就是兴趣点。最后对本发明所提出的基于3D‑SUSAN角点算子提取的三维模型感兴趣点从错误率、缺失率、误差率进行评估。本发明不仅可以提取三维模型兴趣点而且仍保留了SUSAN的抗噪能力强、计算量小效率高、性能稳定的优点。

    一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法

    公开(公告)号:CN106780441A

    公开(公告)日:2017-05-31

    申请号:CN201611078458.4

    申请日:2016-11-30

    Abstract: 本发明涉及一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法。本发明分为平面图像质量测量和立体感知质量测量两部分。平面图像质量测量:首先对所有左右参考图像进行字典学习得到字典;然后将所有参考与失真图像在对应字典上求取稀疏系数矩阵,并计算稀疏系数相似度;最后利用立体掩蔽效应,将左右失真图像质量进行融合得到平面图像质量。立体感知质量测量:对参考图像的视差图进行字典学习,再将参考图和失真图的视差图在对应字典上求稀疏系数矩阵,得到立体感知质量。最后将平面和立体感知质量相融合得到立体图像质量。本发明方法考虑了人眼视觉特性,准确地测量了立体图像质量。

Patent Agency Ranking