-
公开(公告)号:CN113674369B
公开(公告)日:2024-04-09
申请号:CN202110848788.1
申请日:2021-07-27
Abstract: 本发明涉及一种深度学习采样改进G‑PCC压缩的方法。首先,把一帧点云按照64*64*64大小分块并素化。然后,采用卷积网络提取点云体素化的特征,把点映射到128维的向量,进一步把特征向量映射回只有原来总数四分之一的点云。再而,把采样后的点云经过G‑PCC编码和解码。最后,对解码后的点云体素化,并用反卷积网络提取特征,把点映射到128维的向量,进一步把特征向量映射回点云,同样根据重建的误差最小,不断优化采样和重建的点云,融合块点云生成解码点云。和直接使用G‑PCC编码相比,使用卷积网络采样和重建在保证了点云质量的同时只需要编码原来点云数目的四分之一,减少了大量比特的开销。
-
公开(公告)号:CN113573060B
公开(公告)日:2022-12-23
申请号:CN202110854530.2
申请日:2021-07-28
Applicant: 福州大学
IPC: H04N19/13 , H04N19/124 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种深度学习自适应特征维度的点云几何编码方法,首先,把一帧点云分块,对分块的点云进行体素化。然后,使用自编码器的编码器把点云映射为N*8*8*8的特征系数,计算不同N时,使用解码器重建点云的均方误差与码率之间构成的代价函数,求解使得代价函数最小时对应的特征维度,输出此时对应的比特流。再而,使用解码器重建点云。最后,根据重建的点云和最小值还原真实的块点云。对输出的每一块点云融合得到解码点云。本发明优化点云的失真和码率的大小,能够快速获取最佳特征维度,进一步提高点云压缩效率及质量。
-
公开(公告)号:CN115474047A
公开(公告)日:2022-12-13
申请号:CN202211112366.9
申请日:2022-09-13
Applicant: 福州大学
IPC: H04N19/124 , H04N19/172 , H04N19/597 , H04N19/70 , H04N19/91 , G06T7/32 , G06T9/00
Abstract: 本发明涉及一种基于增强映射图相关性LiDAR点云编码方法及解码方法,编码方法包括:获取待偏码点云,将部分点云帧作为I帧,其余点云帧作为P帧;将I帧和P帧的几何信息映射为2D距离图,划分为分辨率为N1×N2的分块,将I帧和P帧各分块转换为三维点云,使用ICP算法根据I帧各分块三维点云配准P帧各分块三维点云,得到运动信息H;将P’帧各分块三维点云转化为2D距离图;将I帧和P帧的属性信息映射为2D属性图;2D距离图和2D属性图编码成视频流,将视频流编码为二进制码流;将运动信息H量化为2D距离图,并压缩为二进制码流。本发明降低了空间及时间冗余,对高效点云压缩方案的探索和研究对于自动驾驶和移动机器人等相关应用的发展具有重要战略意义。
-
公开(公告)号:CN115272499A
公开(公告)日:2022-11-01
申请号:CN202210885962.4
申请日:2022-07-26
Abstract: 本发明涉及一种基于混合上下文熵模型的点云几何编码方法,通过将树结构点云中深度为n‑i的节点转换为体素块,得到混合结构点云数据;对树结构点云中的节点和混合结构点云中的体素块提取上下文信息;将体素块的上下文信息与其尺寸一致的节点的上下文信息进行拼接;通过选择单元对拼接结果进行混合,得到各体素块的混合上下文信息;根据混合上下文信息,对各体素块进行概率估计,得到预测概率;根据预测概率和体素块进行编码,得到编码结果。本发明剔除了树结构中存在的大量冗余信息,并通过双向的上下文信息提取、上下文信息混合,实现了对体素上下文的精细建模,为体素编码提供了更准确的预测概率,在提高压缩率的同时降低编码过程中的数据损失。
-
公开(公告)号:CN113674369A
公开(公告)日:2021-11-19
申请号:CN202110848788.1
申请日:2021-07-27
Abstract: 本发明涉及一种深度学习采样改进G‑PCC压缩的方法。首先,把一帧点云按照64*64*64大小分块并素化。然后,采用卷积网络提取点云体素化的特征,把点映射到128维的向量,进一步把特征向量映射回只有原来总数四分之一的点云。再而,把采样后的点云经过G‑PCC编码和解码。最后,对解码后的点云体素化,并用反卷积网络提取特征,把点映射到128维的向量,进一步把特征向量映射回点云,同样根据重建的误差最小,不断优化采样和重建的点云,融合块点云生成解码点云。和直接使用G‑PCC编码相比,使用卷积网络采样和重建在保证了点云质量的同时只需要编码原来点云数目的四分之一,减少了大量比特的开销。
-
公开(公告)号:CN113573068A
公开(公告)日:2021-10-29
申请号:CN202110854547.8
申请日:2021-07-28
Applicant: 福州大学
IPC: H04N19/159 , H04N19/51 , H04N19/96
Abstract: 本发明涉及一种基于配准的改进V‑PCC帧间预测方法,包括以下步骤:步骤S1:基于运动一致性的二叉树粗分割算法对当前帧点云进行分割,并计算块内点云的质心到原点的距离,按距离的大小依次排序,给予相应的块其索引信息;步骤S2:对分割后的块进行三维配准帧间预测并计算误差,对于误差小于一定阈值的块直接熵编码块索引和运动信息;对于误差大于阈值的块,则融合并使用V‑PCC的帧间估计,最后形成比特流。本发明有效提高V‑PCC的编码性能。
-
公开(公告)号:CN113573068B
公开(公告)日:2024-03-29
申请号:CN202110854547.8
申请日:2021-07-28
Applicant: 福州大学
IPC: H04N19/159 , H04N19/51 , H04N19/96
Abstract: 本发明涉及一种基于配准的改进V‑PCC帧间预测方法,包括以下步骤:步骤S1:基于运动一致性的二叉树粗分割算法对当前帧点云进行分割,并计算块内点云的质心到原点的距离,按距离的大小依次排序,给予相应的块其索引信息;步骤S2:对分割后的块进行三维配准帧间预测并计算误差,对于误差小于一定阈值的块直接熵编码块索引和运动信息;对于误差大于阈值的块,则融合并使用V‑PCC的帧间估计,最后形成比特流。本发明有效提高V‑PCC的编码性能。
-
公开(公告)号:CN115118998A
公开(公告)日:2022-09-27
申请号:CN202210710728.8
申请日:2022-06-22
Applicant: 福州大学
Abstract: 本发明涉及一种增强投影相关性的帧间编码方法、解码方法及装置,解码方法包括以下步骤:顺序输入各帧的点云序列A,去除各点云序列A的离群点;以X帧为一组,对每组第一帧的点云序列A进行V‑PCC编码并输出;对每组其余帧进行以下操作:对点云序列A进行基于运动一致性的二叉树分割,得到分割信息和若干点云块;分割信息包括块索引;对点云块依次进行NDT粗配准和ICP精细配准,得到配准后的点云块和ICP精细配准中产生的的旋转矩阵R和平移向量T;对点云块进行点云融合并生成点云序列B;对点云序列B使用平滑算法;对点云序列B进行V‑PCC编码并输出,对分割信息、旋转矩阵R和平移向量T进行熵编码并输出。该方法进一步提高了V‑PCC的编码性能。
-
公开(公告)号:CN114554175A
公开(公告)日:2022-05-27
申请号:CN202111628747.8
申请日:2021-12-28
IPC: H04N13/161 , H04N13/106 , H04N19/182 , H04N19/176
Abstract: 本发明涉及一种基于分类重排的点云无损压缩方法。首先确定阈值:将图像中的像素划分成为若干个类别,使得同一类别中的像素灰度值相接近;根据确定的阈值,分类得到C1、C2和像素掩膜图Mp;Mp则是一幅二值的像素掩膜图,大小为SxS;Mp记录了所有像素的类别信息,但本身所占比特数较多,进一步将其分块合并,得到一张分块掩膜图Mb;按照三阶Hilbert曲线的顺序遍历分块掩膜图和像素即可以把整个图像的所有像素排列成一个一维序列D,D序列分为两个子序列D1与D2,分别对应高、低灰度值;数据流D1、D2和分块掩膜图Mb采用JPEG‑LS进行编码,而后形成编码的两路比特流,最后输出。本发明能够满足数据无损与压缩率高的双重需求。
-
公开(公告)号:CN113613017A
公开(公告)日:2021-11-05
申请号:CN202110848736.4
申请日:2021-07-27
IPC: H04N19/503 , H04N19/597 , H04N19/91 , H04N19/184 , H04N19/44
Abstract: 本发明涉及一种三维帧间预测改进V‑PCC帧间预测的方法。首先,对当前帧点云找到在前一帧点云的最近点并记录距离。然后,把当前点云的点按照的优先级升序排序,以第一个点为坐标原点沿着值增加的方向构建8*8*8的包围盒。再而,设定可以容忍的点云失真阈值,并计算包围盒内最近点的距离的均值,根据均值与失真阈值的比较,把点云分成静态点云(均值小于阈值,能有效被三维帧间预测)和动态点云。对静态点云则通过构建代价函数对包围盒沿着某个最佳的维度延伸,并且每次去掉当前帧中的包围盒内点云。最后,重复上述步骤,直到所有点云分类完成,对动态点云融合并使用V‑PCC编码,静态点云则熵编码其包围盒坐标的最小和最大值。
-
-
-
-
-
-
-
-
-