一种双目数字散斑图像相关的视差测量方法

    公开(公告)号:CN113808070B

    公开(公告)日:2024-06-07

    申请号:CN202110847673.0

    申请日:2021-07-26

    Abstract: 发明提出了一种双目数字散斑图像相关的视差测量方法,双目立体视觉测量系统包括一台投影设备和两台相机。先采用张正友标定法,标定得到左、右相机的内参和外参;将分布密度可控的散斑图像投射到被测物体表面;左、右相机同步获得左、右图像;对散斑图像进行处理,使待匹配范围从二维图像减少到一维极线上;在右图像中选取一定形状和大小的待匹配窗口,采用改进的基于灰度图像的归一化互相关匹配算法,在左图像中寻找待匹配窗口的最优匹配窗口,计算出视差值;改变待匹配窗口内两边像素矩阵与中心像素点的间隔数,计算出多个视差值;最后,将视差按照间隔数的倒数进行加权平均,得到两个不同的视角下散斑图像的最终视差值。

    一种基于深度学习的端到端散斑投影三维测量方法

    公开(公告)号:CN112419386B

    公开(公告)日:2022-10-14

    申请号:CN202010982857.3

    申请日:2020-09-18

    Abstract: 本发明公开了一种基于深度学习的端到端散斑投影三维测量方法。首先使用投影仪投影、双目相机同步采集散斑图案。对散斑图案进行立体校正,输入到立体匹配网络中,基于共享权重的特征提取子网络对散斑图案进行处理得到一系列低分辨率的3维特征张量。特征张量输入到显着性物体检测子网络中用于检测散斑图中的前景信息以生成全分辨率的有效掩膜图。使用两个视角的特征张量根据候选视差范围生成4维匹配成本体,经过一系列三维卷积层滤波实现成本聚合,通过视差回归得到初始视差图。结合有效掩膜图和初始视差图得到最终视差图,实现单帧、鲁棒的绝对三维形貌测量。本发明仅需要投影一张散斑图案即可实现单帧、鲁棒的绝对三维形貌测量。

    基于多帧散斑的时空立体匹配方法

    公开(公告)号:CN115063469A

    公开(公告)日:2022-09-16

    申请号:CN202210736394.1

    申请日:2022-06-27

    Abstract: 本发明公开了一种基于多帧散斑的时空立体匹配方法,包括使用投影仪向被测场景投射多幅散斑图案,左右相机同步采集多帧散斑图像,计算得到初始匹配成本,通过WTA方法获得待测场景的初始视差图。利用基于归一化互信息的单像素匹配方法计算得到匹配成本,使用基于引导滤波的成本聚合算法得到聚合后的匹配成本。对聚合后的匹配成本使用基于分数差异的亚像素优化算法获得亚像素视差值。去除遮挡区域和误匹配点,获得待测场景的稠密视差图,再根据图像坐标系与相机坐标系的相对关系重构出待测场景的高精度三维轮廓数据。本发明通过由粗到精的时空立体匹配过程,根据图像坐标系与相机坐标系关系从而重构出待测场景的高精度三维轮廓。

    一种用于三维人头模型测量的散斑图案头套设计方法

    公开(公告)号:CN111951151B

    公开(公告)日:2022-09-06

    申请号:CN202010721120.6

    申请日:2020-07-24

    Abstract: 本发明公开了一种用于三维人头模型测量的散斑图案头套设计方法,根据模型实际大小,确定散斑图案分辨率大小以及圆形散斑的直径;根据散斑图案分辨率大小以及圆形散斑的直径,确定相邻散斑中心之间的距离,散斑图案的总个数、每个散斑的最终中心坐标以及每个像素的强度值;生成具有单一粒径的随机化散斑图案,将散斑图案保存为数字化图案;将散斑图案印刷在头套上。本发明保证了最后打印出来的散斑图案具有足够的均匀性、随机性和较好的稠密度,从而间接地提高了三维人头模型测量的精度。

    一种针对相机镜头畸变的立体校正方法

    公开(公告)号:CN114926365A

    公开(公告)日:2022-08-19

    申请号:CN202210621691.1

    申请日:2022-06-02

    Abstract: 本发明公开了一种针对相机镜头畸变的立体校正方法。首先,使用相机的标定参数和立体标定参数,对图像进行立体校正,得到校正后的相机参数。但由于光学透镜固有的透视失真使得采集的图像存在畸变,导致校正后的图像存在部分区域的数据缺失,需要对图像进行裁剪,并需要重新计算裁剪后的相机参数。最后,再使用最终得到的相机参数,实施立体校正过程。与传统的立体校正方法相比,本发明提出了裁剪校正的立体校正策略,以最大程度的保留了校正后图像的可见区域,从而实现高精度的立体匹配。

    基于多尺度生成对抗神经网络的单帧条纹分析方法

    公开(公告)号:CN111461295B

    公开(公告)日:2022-08-16

    申请号:CN202010199717.9

    申请日:2020-03-20

    Abstract: 本发明公开了一种基于多尺度生成对抗神经网络的单帧条纹分析方法,其包括构建多尺度生成对抗神经网络模型;构建多尺度生成对抗神经网络模型的综合损失函数L;采集多尺度生成对抗神经网络的训练数据,并利用训练数据对多尺度生成对抗神经网络进行训练;将待测条纹图像输入至训练好的多尺度图像生成器,获得对应的正弦项、余弦项和调制度图,利用反正切函数计算相位。本发明中的神经网络经训练好后,计算过程不需要人为地设置复杂的计算参数,操作更为简便。由于神经网络的输入为单幅条纹图像,本发明为运动物体的条纹分析提供了高效、高精度的相位计算方法。

    基于相位级次代价滤波的鲁棒立体相位展开方法

    公开(公告)号:CN111947600B

    公开(公告)日:2022-05-20

    申请号:CN202010721798.4

    申请日:2020-07-24

    Abstract: 本发明公开了一种基于相位级次代价滤波的鲁棒立体相位展开方法,首先采集一组三步相移条纹图和一张散斑图,通过最小二乘法计算三步相移条纹图像获得包裹相位图,通过ZNCC计算散斑图像获得初始匹配代价值,然后根据包裹相位图与相机和投影仪之间的参数构建关于候选级次的三维匹配代价空间,通过基于窗口的成本滤波方法获得最终的匹配代价值,通过WTA计算出相位级次图从而获得绝对相位图,通过相位匹配最终实现鲁棒、高精度的绝对三维形貌测量。本发明仅需要四张投影图案即可实现鲁棒、高精度的绝对三维形貌测量。

Patent Agency Ranking