一种基于深度学习的图像模糊长度测量方法

    公开(公告)号:CN113935910A

    公开(公告)日:2022-01-14

    申请号:CN202111122180.7

    申请日:2021-09-24

    Abstract: 本发明公开了一种基于深度学习的图像模糊长度测量方法。首先采集高帧率的清晰视频,经过预处理和插帧后,合成训练所需的数据集;然后构造模糊测量网络,使用合成的数据集训练;最后输入任意的模糊图像,经过缩放后输入训练好的模糊测量网络,测量得到其模糊长度。本发明实现了一种基于深度学习的图像模糊长度测量方法,对图像去模糊有较大意义。本发明利用高帧率清晰视频和插帧算法,通过数学建模和数字图像处理的方式,自动批量合成模糊图并计算真实模糊长度,供专门设计的深度学习网络进行端到端的训练。训练完毕后,输入任意模糊图,网络可以预测出其对应的模糊长度。

    一种基于室内空间布局约束的场景模型补全方法

    公开(公告)号:CN113536416A

    公开(公告)日:2021-10-22

    申请号:CN202110683630.3

    申请日:2021-06-21

    Abstract: 本发明公开了一种基于室内空间布局约束的场景模型补全方法。首先使用超体素分割对室内稠密三维重建模型进行预处理,将mesh模型转换成超体素数据,每个超体素数据将邻局部特征一致的mesh进行初步的聚类,在保持原三维模型的特征的基础上大大的减少了计算量,然后在超体素模型上使用RANSAC平面检测算法,进行平面的预提取,建立带有平面几何约束的能量函数,通过求解能量函数求得该三维室内模型中的建筑主体结构平面,然后得出模型的室内空间布局,在室内空间布局的约束下,进行孔洞检测和孔洞修补,最终完成三维模型的孔洞补全。本发明方法能够大大提升对墙角等墙建筑主体结构上的补全效果,进而提升了整体室内环境的补全效果。

    一种多全景图融合三维重建的方法

    公开(公告)号:CN113409442A

    公开(公告)日:2021-09-17

    申请号:CN202110522224.9

    申请日:2021-05-13

    Abstract: 本发明公开了一种多全景图融合三维重建的方法;首先通过扫描平台获取室内场景的RGB图与深度图;然后进行相机运动定位;通过对获取的室内场景的RGB图像以及对应的深度图进行预处理,以构建单张3D全景图;再进行多张全景图的数据获取及构建;之后进行多全景图融合,最后通过融合后的多全景图实现室内场景的抗噪三维重建完成。本发明方法结合了传统slam优质算法和基于3D全景图的优势,可以得到更为准确的室内场景重建效果,实现更高质量的重建,并且本发明方通过限定其运动一致性来共同跟踪未同步的相机,而无需依赖于明显的视差或快门同步,使得重建结果更加准确。

    一种基于人工神经网络的实时场景布局识别及重建的方法

    公开(公告)号:CN108648224B

    公开(公告)日:2021-07-13

    申请号:CN201810481159.8

    申请日:2018-05-18

    Abstract: 本发明公开了一种基于人工神经网络的实时场景布局识别及重建方。本发明用人工神经网络模型对输入序列进行处理,并通过寻找单帧之间的相关性,得到室内场景的布局识别后,在曼哈顿世界假设下,利用空间中一点在像素坐标系下存在唯一投影的原理,迭代优化,得到场景中每个平面的单位法向量和该平面到相机中心的距离,并在OpenGL下渲染平面。本发明利用人工神经网络,并寻找帧与帧间的联系,使得网络输出结果和三维重建结果更为精确;使用单目的RGB信息还原三维信息,减少硬件成本,同时利用每帧得到的布局信息,使用优化算法求解得到场景中每个平面的法向量和到相机中心距离。

    一种基于增强现实的虚拟现实实现方法

    公开(公告)号:CN107016704A

    公开(公告)日:2017-08-04

    申请号:CN201710174897.3

    申请日:2017-03-22

    Abstract: 本发明公开了一种基于增强现实的虚拟现实实现方法。本方法为:1)通过相机采集场景的深度图像序列和RGB序列;2)根据采集的深度图像序列、RGB序列生成该场景的RGBD四通道图像序列;3)根据该RGBD计算出两帧间相机的旋转矩阵与平移向量;从该场景的RGBD中识别出场景中的目标物体、平面结构及其在三维空间中的位置信息;将该RGBD转换为双目视图序列;4)将该双目视图呈现于该相机的屏幕上,根据场景中平面结构在三维空间中的位置信息在该场景中绘制该目标物体的虚拟三维模型并根据相机的旋转矩阵和平移向量对该虚拟三维模型进行变换,使之与所附着的平面结构呈现相对静止。本发明能够准确、快速算出需要呈现的图像。

    一种基于区块随机蕨编码的精度自监督视觉重定位方法

    公开(公告)号:CN116740179A

    公开(公告)日:2023-09-12

    申请号:CN202310782568.2

    申请日:2023-06-29

    Abstract: 本发明公开了一种基于区块随机蕨编码的精度自监督视觉重定位方法。包括阶段一,区块随机蕨编码与匹配:首先进行图像区块的构建,然后进行区块随机蕨的编码,最后完成区块编码信息的匹配,获得关键帧候选列表中。阶段二,精度自监督重定位位姿优化:首先进行基于历史关键帧的位姿估计,之后进行位姿精度的自识别,对于高精度的重定位位姿直接输出,对于低精度甚至完全错误的重定位位姿,寻找次优匹配结果重新计算其重定位位姿,直至输出正确的重定位位姿。本发明方法在大视角差下的新视点上也能够成功的实现重定位,极大的提高了重定位在使用过程中使用体验,使得用户只需大致扫描到原来历史区域,便能设备够正确的进行重定位。

    纳米金/石墨烯修饰丝网印刷电极、制备方法及应用

    公开(公告)号:CN108982618B

    公开(公告)日:2021-06-29

    申请号:CN201810882445.5

    申请日:2018-08-06

    Abstract: 本发明属于食品安全检测技术领域,具体涉及纳米金/石墨烯修饰丝网印刷电极、制备方法及应用。其中,制备方法包括以下步骤:步骤一、配制石墨烯溶液;步骤二、将金的前驱体溶液加入所述石墨烯溶液中得到混合液;步骤三、将混合液涂覆于丝网印刷电极的工作电极区域,干燥成膜后得到具有膜层的丝网印刷电极;步骤四、将具有膜层的丝网印刷电极连接至电化学工作站,并于电解液中进行循环伏安法扫描,得到纳米金/石墨烯修饰丝网印刷电极。本发明的制备方法,利用丝网印刷电极为基体,将石墨烯和金的前驱体的混合液涂覆在丝网印刷电极的工作电极区域,干燥成膜后进行循环伏安法扫描,即可得到纳米金/石墨烯修饰丝网印刷电极,制备方法简单、可靠。

    一种基于深度图像的实时平面检测及提取方法

    公开(公告)号:CN112614173A

    公开(公告)日:2021-04-06

    申请号:CN202011563133.1

    申请日:2020-12-25

    Abstract: 本发明公开了一种基于深度图像的实时平面检测及提取方法首先对深度图像进行预处理,并提取深度图像的区块信息,然后对区块的法向量分布做降维统计;再对估计的各个法向量分别检测平行平面,得到各个方向上的各平面到原点的距离;最后以区块为聚类单位、各平面的参数为聚类种子点进行聚类,进行平面参数优化和平面区域的提取,记第i个平面参数为Pi,平面参数包含平面的法向量以及平面与原点的距离;本发明方法根据深度图像的成像原理及平面结构的空间特性,能够对深度图提取场景中所有平面的几何信息,使得计算机可以实时地通过深度图像获取环境中的平面结构信息,使得三维重建结果更加准确。

    一种基于智能手机的场景重建方法

    公开(公告)号:CN107103626A

    公开(公告)日:2017-08-29

    申请号:CN201710173832.7

    申请日:2017-03-22

    Abstract: 本发明公开了一种基于智能手机的场景重建方法。本方法为:1)计算智能手机上彩色相机的内部相机参数矩阵;2)将深度相机连接到该智能手机上并固定,计算该深度相机对应的内部相机参数矩阵及其缩放因子;3)计算该彩色相机与该深度相机相对应的外部参数矩阵;4)用智能手机上的该彩色相机、深度相机拍摄场景的全景视频,再将该视频转换为图像序列;然后通过得到的外部参数矩阵和内部参数矩阵将图像序列合并为RGB‑D四通道序列;5)计算该RGB‑D中相邻两帧对应的变换矩阵;6)通过RGB‑D与变换矩阵建立场景三维空间点云集,然后通过仿射变换将该点云集显示于智能手机的显示屏上。本发明具有更好的便携性和可塑性。

    一种基于知识蒸馏的点云渲染增强方法

    公开(公告)号:CN116863053A

    公开(公告)日:2023-10-10

    申请号:CN202310858434.4

    申请日:2023-07-13

    Abstract: 本发明公开了一种基于知识蒸馏的点云渲染增强方法。本发明包括以下步骤:步骤1、构造并训练神经辐射场;输入图像序列,使用训练好的神经辐射场进行重建,得到场景隐式表达;步骤2、训练可微分的点云渲染器,在训练的过程当中,将得到的场景隐式表达作为先验知识,利用知识蒸馏来修正Z‑buffer,从而得到更好的渲染结果。本发明利用先前学习到神经辐射场所产生的高质量的Z‑Buffer,作为高质量的先验,来修正可微分的点云渲染器的权重,以减少渲染中的噪点和其他失真效果,从而生成更加准确和精细的渲染图像。通过这些改进,本发明能够在保持点云原有信息的基础上提高渲染效果和质量,从而更好地满足VR/AR系统等下游任务的需求。

Patent Agency Ranking