-
公开(公告)号:CN118071604A
公开(公告)日:2024-05-24
申请号:CN202410100626.3
申请日:2024-01-24
Applicant: 北京工业大学
IPC: G06T3/4076 , G06T3/4007 , G06V10/44 , G06V10/80 , G06N3/0464 , G06V10/82 , G06T3/4038 , G06N3/048
Abstract: 一种基于双目立体匹配引导的深度图超分辨率方法属于图像处理领域,网络包含三个阶段:视差估计阶段、特征优化阶段、重建阶段。该网络还使用了新提出的视差估计模块和双路多尺度特征交互模块。网络的输入为低分辨率深度图和双目引导彩图,经过视差估计阶段生成视差图,然后通过特征优化阶段细化深度图与视差图的多尺度特征,并进行深度图、视差图的双路多尺度特征交互,最后将生成的多迭代输出融合,进入重建阶段完成最终的深度图重建。该网络提出使用与深度图物理意义一致的高分辨率视差图作为引导,能提供比普通彩色引导图像更准确的高频信息,从而达到更好的深度图超分辨率效果。
-
公开(公告)号:CN116934962A
公开(公告)日:2023-10-24
申请号:CN202310821544.3
申请日:2023-07-06
Applicant: 北京工业大学
Abstract: 本发明提供了一种基于深度学习的点云上采样方法,包括:频率感知的注意力模块,该模块结合图滤波与通道注意力,用于突出高频点的特征;为了更好的保持几何结构与局部细节,本发明设计了集合内与集合间特征聚合模块和结构感知的特征变换模块;一方面通过聚合集合内与集合间特征用来创建每个点完整的局部表示;另一方面结构感知的特征变换模块通过捕获全局几何结构和精细局部细节来提高扩展点特征的质量;此外,为了提高粗输稠密点云的质量,本发明设计了多尺度空间修正单元,该单元利用了注意力特征融合和多尺度注意力;基于目标数值优化初始点云上采样网络,得到点云上采样网络。
-
-
公开(公告)号:CN115802048A
公开(公告)日:2023-03-14
申请号:CN202210828769.7
申请日:2022-07-13
Applicant: 北京工业大学
IPC: H04N19/176 , H04N19/61 , H04N19/186 , H04N19/85 , H04N19/124 , H04N19/103 , G06T9/00
Abstract: 本发明提出了一种基于块间预测和图傅里叶变换的点云属性压缩方法,解决在维持“码率‑失真”平衡的前提下提升压缩性能的问题。首先,在点云上进行聚类,将点云划分为不同的点云块。本发明将基于点云块进行点云属性信息的编码。具体地,将进行区域划分后的点云块的颜色属性拆分为属性均值和属性残差两部分,根据两部分信息的不同特点,对二者分别进行处理。针对属性残差信息,本发明提出一种图傅里叶变换方法,进一步增强变换系数的稀疏性,从而获得更好的压缩性能。对于属性均值信息,根据相邻点云块的属性均值之间的相关性,采用预测的方式来消除块间冗余。然后对经过变换和预测处理的属性均值和属性残差进行编解码以及基于反变换和反预测重建。
-
公开(公告)号:CN111145094A
公开(公告)日:2020-05-12
申请号:CN201911361920.5
申请日:2019-12-26
Applicant: 北京工业大学
Abstract: 本发明属于图像处理领域,尤其涉及一种表面法向引导与图拉普拉斯先验约束的深度图像超分辨率(SR)重建方法。用于有效改善现有技术在深度图像重建过程中存在的边界伪影的问题。本发明将三维场景中物体表面法向与物体到相机距离之间的几何关系做为深度图的重建约束,融合进深度图的重建模型中。在这个模型中,法向图提供空间几何约束,图拉普拉斯矩阵提供分段平滑约束,通过求解这个优化模型得到最优重建高分辨率深度图。
-
-
-
-