-
公开(公告)号:CN119152132B
公开(公告)日:2025-01-24
申请号:CN202411649251.2
申请日:2024-11-19
Applicant: 南京理工大学
IPC: G06T17/00 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于深度学习的单帧实时三维成像方法,包括:构建基于物理模型的轻量级相位恢复网络模型;搭建多视觉结构光条纹投影系统;构建训练数据集,完成轻量级相位恢复网络模型的训练,利用TensorRT对轻量级相位恢复网络模型进行部署。通过三个单色视角并行推理,实时获得三个包裹相位图像;利用多视角几何约束和立体相位匹配算法,将包裹相位展开为绝对相位;通过相位‑高度映射及彩色图像,生成带有彩色纹理信息的三维点云。本发明结合深度学习技术与传统条纹投影物理模型,仅需单帧图像即可完成快速相位获取,克服运动干扰,实现复杂动态场景的在线实时高精度三维成像。
-
公开(公告)号:CN119152132A
公开(公告)日:2024-12-17
申请号:CN202411649251.2
申请日:2024-11-19
Applicant: 南京理工大学
IPC: G06T17/00 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于深度学习的单帧实时三维成像方法,包括:构建基于物理模型的轻量级相位恢复网络模型;搭建多视觉结构光条纹投影系统;构建训练数据集,完成轻量级相位恢复网络模型的训练,利用TensorRT对轻量级相位恢复网络模型进行部署。通过三个单色视角并行推理,实时获得三个包裹相位图像;利用多视角几何约束和立体相位匹配算法,将包裹相位展开为绝对相位;通过相位‑高度映射及彩色图像,生成带有彩色纹理信息的三维点云。本发明结合深度学习技术与传统条纹投影物理模型,仅需单帧图像即可完成快速相位获取,克服运动干扰,实现复杂动态场景的在线实时高精度三维成像。
-
公开(公告)号:CN114777677B
公开(公告)日:2024-04-26
申请号:CN202210232312.X
申请日:2022-03-09
Applicant: 南京理工大学
IPC: G01B11/25 , G06N3/0464 , G06N3/0499 , G06N3/084 , G06N3/045 , G06N3/02 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种基于深度学习的单帧双频复用条纹投影三维面型测量方法,包括:将两个不同空间频率的垂直正弦条纹进行叠加,复合到一张条纹图中生成双频空间载频复用条纹编码图案;构建基于深度卷积神经网络的模型U‑Nets;利用双频空间载频复用条纹编码图案生成训练数据集,所述训练数据集包括输入集和真值数据集,利用训练数据集训练网络模型U‑Nets;利用训练完成的U‑Nets实现对待测物体的相位恢复及三维重建。本发明只需要一幅条纹图像作为输入,即可实现快速、高精度的相位信息获取与无歧义的相位展开。
-
公开(公告)号:CN116433841A
公开(公告)日:2023-07-14
申请号:CN202310386622.1
申请日:2023-04-12
Applicant: 南京理工大学
Abstract: 本发明公开了一种基于全局优化的实时模型重建方法,采用条纹投影轮廓术与立体相位匹配技术实时获取物体的高精度三维数据,并将其转换为点云形式,利用透视点问题求解方法初步估算出相邻帧点云之间粗略的位姿变换矩阵,对点云移动距离设置阈值并筛选出关键帧后,计算关键帧的法向量,并以此为依据进行二次点云位姿初始化;另外,使用最近迭代点算法ICP对相邻关键帧点云作连续成对配准,并在所有关键帧点云获取完成后,引入图优化技术对全局点云位姿进行优化,得到全局一致的点云位姿。本发明提高了无约束实时三维模型重建方案的稳定性与精度。
-
公开(公告)号:CN111353997A
公开(公告)日:2020-06-30
申请号:CN202010275461.5
申请日:2020-04-09
Applicant: 南京理工大学
Abstract: 本发明公开了一种基于条纹投影的实时三维面型缺陷检测方法,包括构建四目结构的三维成像系统,并完成系统标定;将标准件置于所构建的三维成像系统的成像范围内,转动标准件完成标准件不同面的三维点云数据的获取及拼接,并将最终拼接所得的三维模型保存为标准库;将待测件放置于所搭建的三维成像系统的成像范围内,转动待测件完成不同面的三维点云数据的获取,并根据标准库数据完成三维面型缺陷的检测。本发明整个过程高效、快速、实时、准确,极大提高了工件面型缺陷检测的效率和准确率。
-
公开(公告)号:CN119850453A
公开(公告)日:2025-04-18
申请号:CN202410219363.8
申请日:2024-02-28
Applicant: 南京理工大学
IPC: G06T5/70 , G06T5/60 , G06N3/0464 , G06N3/084
Abstract: 本发明提出了一种基于轻量化网络的近红外条纹图像快速去噪方法,包括:构建轻量化的卷积神经网络;利用近红外结构光系统在真实场景下采集不同面形样品图像,对每张图像设置最优参数,利用设置最优参数的图像制备数据集;将数据集输入轻量化的去噪神经网络进行训练;将实时采集的带有噪声的红外条纹图输入训练好的轻量化去噪模型,获得去噪后的优化条纹图像。
-
公开(公告)号:CN113551617A
公开(公告)日:2021-10-26
申请号:CN202110743612.X
申请日:2021-06-30
Applicant: 南京理工大学
IPC: G01B11/25
Abstract: 本发明公开了一种基于条纹投影的双目双频互补三维面型测量方法,通过投影两组高低频率的条纹图像,基于双目立体相位展开法,以两种频率的相位相似性度量为指导实现低频相位无歧义展开,进而恢复被测物绝对深度;然后仅使用单种频率的条纹图像,以上一时刻所测量的深度信息为依据,迅速纠正离群点云,确保快速、准确、高质量三维形貌测量的进行。本发明无需投影额外的辅助条纹图像,可通过三幅图像实现稳定相位展开,成像效率提高2/3;本发明利用高低频互补特性,以更少的相机视角实现了对动态场景的高精度的三维信息测量。
-
公开(公告)号:CN111351450B
公开(公告)日:2021-09-28
申请号:CN202010199593.4
申请日:2020-03-20
Applicant: 南京理工大学
Abstract: 本发明公开了一种基于深度学习的单帧条纹图像三维测量方法,包括:构建2个卷积神经网络CNN;利用训练数据分别对2个卷积神经网络CNN进行训练,生成模型1和模型2;采集待测物体的条纹图像,利用模型1和模型2获得待测物体的条纹级次、分子项与分母项,将分子项与分母项代入反正切函数,结合条纹级次计算绝对相位;根据绝对相位信息对待测物体的三维信息进行计算,实现对待测物体的三维重构。本发明只需向待测物体投影一幅条纹图案,可快速、高效地获取相位信息。
-
公开(公告)号:CN118172255A
公开(公告)日:2024-06-11
申请号:CN202410243526.6
申请日:2024-03-04
Applicant: 南京理工大学
IPC: G06T5/50 , G06T7/33 , G06T3/4084 , G01B11/24
Abstract: 本发明公开了一种针对条纹投影相移轮廓术的运动误差补偿方法,能够实现对任意方向运动物体的高精度相位恢复。本发明首先以三步相移法的第1幅条纹图作为参考,对第2、3幅中的被测物体在图像上的运动进行追踪,并根据估计的像素平移量对第2、3幅条纹图进行运动补偿,使物体在三幅图像中处于同一位置,由运动引起的相移误差变为整体均匀。然后使用未知相移提取算法对补偿后的第2、3幅条纹图的新相移值进行估计,结合三幅条纹图像和估计的新相移量计算包裹相位。相比于传统的相移轮廓术,本发明可以极大地减小运动带来的相位误差,实现对任意方向运动物体的高精度相位恢复。
-
公开(公告)号:CN114777677A
公开(公告)日:2022-07-22
申请号:CN202210232312.X
申请日:2022-03-09
Applicant: 南京理工大学
IPC: G01B11/25 , G06K9/62 , G06N3/02 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种基于深度学习的单帧双频复用条纹投影三维面型测量方法,包括:将两个不同空间频率的垂直正弦条纹进行叠加,复合到一张条纹图中生成双频空间载频复用条纹编码图案;构建基于深度卷积神经网络的模型U‑Nets;利用双频空间载频复用条纹编码图案生成训练数据集,所述训练数据集包括输入集和真值数据集,利用训练数据集训练网络模型U‑Nets;利用训练完成的U‑Nets实现对待测物体的相位恢复及三维重建。本发明只需要一幅条纹图像作为输入,即可实现快速、高精度的相位信息获取与无歧义的相位展开。
-
-
-
-
-
-
-
-
-