一种基于多平面图像学习视角合成的基线扩展实现方法

    公开(公告)号:CN112233165B

    公开(公告)日:2024-06-21

    申请号:CN202011105754.5

    申请日:2020-10-15

    Abstract: 本发明公开了一种基于多平面图像学习视角合成的基线扩展实现方法,用于从窄基线立体摄像机捕获的图像中推断出基线之外的视图。包括:基于视频剪辑获取包括由第一相机采集的第一幅图像和由第二相机采集的第二幅图像的立体图像对;将第二幅图像投影到第一相机坐标系下的一组深度平面上,计算平面扫描量,得到重新投影的图像;将重新投影的图像沿着颜色通道级联,再将张量与第一幅图像级联,得到输入张量;将输入张量输入训练好的基于深度神经网络的MPI学习网络,得到多平面图像MPI的RGBA分层表示;基于MPI的RGBA分层表示,合成同一场景的输入视图之外的视图。本发明在扩展窄基线立体图像方面具有良好的应用前景,并能对许多具有挑战性的场景获得准确的推理结果。

    一种基于动态融合网络的光场深度估计方法

    公开(公告)号:CN112785637B

    公开(公告)日:2022-10-11

    申请号:CN202110077541.4

    申请日:2021-01-20

    Abstract: 本发明公开了一种基于动态融合网络的光场深度估计方法,包括以下步骤:确定光场数据集,基于光场数据集确定训练集和测试集;扩充光场数据集;搭建动态融合网络模型;动态融合网络模型由双流网络和一个多模态动态融合模块构成;双流网络由RGB流和焦点堆栈流组成;将双流网络的输出全局RGB特征和焦点特征作为多模态动态融合模块的输入,输出最终深度图;基于训练集训练构建的动态融合网络模型;在所述测试集上测试训练好的动态融合网络模型,并在手机数据集上进行验证。本发明的光场深度估计方法可以获得优于其它光场深度估计方法的精度,减小噪声,保留更多细节信息,且打破了光场相机的限制,成功地应用于普通消费级相机数据。

    一种基于多模态信息的光场深度估计方法

    公开(公告)号:CN112767466B

    公开(公告)日:2022-10-11

    申请号:CN202110075849.5

    申请日:2021-01-20

    Abstract: 本发明公开了一种基于多模态信息的光场深度估计方法,包括:使用基于微透镜阵列的光场相机采集光场图像数据,得到四维光场图像阵列,提取其中最中心的一个视角图像作为中心视图,并导出一组焦点切片作为焦点堆栈,进行数据扩容;构建卷积神经网络,将焦点堆栈和对应中心视图作为网络模型的输入,得到焦点堆栈流的输入张量和中心视图流的输入张量;训练构建的卷积神经网络;利用训练好的神经网络在光场测试集上进行测试,并在手机采集的实际聚焦切片上进行验证。本发明提供的光场深度估计方法能够充分利用光场多模态信息,在光场数据集上实现更加准确的深度估计;获得的深度信息更加完整、边缘更加清晰;可实现于普通消费级手机端的实际应用。

    一种基于动态滤波解耦卷积网络的RGB-D显著性检测方法

    公开(公告)号:CN113379707A

    公开(公告)日:2021-09-10

    申请号:CN202110653578.7

    申请日:2021-06-11

    Abstract: 本发明公开了一种基于动态滤波解耦卷积网络的RGB‑D显著性检测的方法,包括:获取RGB图像张量和深度图像张量;分别将RGB图像张量和深度图像张量输入编码器网络提取单模态特征组,根据编码器网络特性以及层级划分,生成RGB特征组与深度特征组;将RGB特征组的特征与深度特征组的特征分别放到各自的模态特定的整体引导动态增强模块(MGDEM),进行单模态特定的特征增强;将增强后的RGB特征和深度特征输入场景感知跨模态动态融合模块(SCDFM),进行模态间的特征融合;MGDEM和SCDFM均基于解耦的动态滤波卷积结构;将融合后的特征输入解码器,得到预测的显著性结果。本发明实现了准确的显著性预测。

    一种基于深度引导元胞自动机的光场显著性检测实现方法

    公开(公告)号:CN110211115A

    公开(公告)日:2019-09-06

    申请号:CN201910477922.4

    申请日:2019-06-03

    Inventor: 朴永日 张淼 李啸

    Abstract: 本发明公开了一种基于深度引导元胞自动机的光场显著性检测实现方法,其特征在于,包括如下步骤:A、背景种子选取Bk;B、得到深度引导的显著性图SdI(i);C、通过深度引导的元胞自动机模型优化所述深度引导的显著性图SdI(i)得到显著性结果 D、对所述显著性结果 进行后处理得到最终显著性预测结果。本发明构建了深度引导的元胞自动机模型利用图像相似区域之间的相互作用更新优化显著性预测结果,本方法对于很多有挑战性的场景都能取得准确的预测结果。

    基于Kinect的无畸变集成成像三维显示方法

    公开(公告)号:CN106920263B

    公开(公告)日:2019-07-16

    申请号:CN201710142236.2

    申请日:2017-03-10

    Abstract: 本发明公开了一种基于Kinect传感器的无畸变集成成像三维显示方法,首先利用Kinect传感器获取三维场景的深度图像,并采用快速步进法对Kinect获取的深度图像进行黑洞填充;然后结合对应的彩色图像对填充后的深度图像进行联合双边滤波,得到具有连续深度变化且边缘平滑的深度图像;最后利用光场模型得到大景深复杂场景的基元图像阵列,实现无畸变的三维集成成像显示。本发明获得的基元元素图像阵列,因是在没有散射和折射影响的理想状态,其图像品质优于通过微透镜阵列获得基元图像阵列。本发明不仅可以有效克服在记录大景深复杂场景时微透镜阵列的物理局限性,而且可以实现对大景深复杂场景的无畸变三维集成成像显示。

    一种基于不确定性的山丘区水文模型与数据精度匹配方法

    公开(公告)号:CN106951682B

    公开(公告)日:2019-03-29

    申请号:CN201710109519.7

    申请日:2017-03-01

    Abstract: 本发明提供一种基于不确定性分析的山丘区水文预报模型与数据精度匹配方法,包括以下步骤:1)分析某一类型数据精度对模拟的影响;2)基于单独一种数据精度对水文模拟结果的影响分析,选择对结果影响较大的数据精度,采用方差分解方法ANOVA量化水文模拟中诸多数据类型对模拟结果的不确定性贡献,识别影响模拟结果不确定性的来源,找到水文预报模型与数据精度匹配的方案。该方法综合考虑影响水文模型不确定性的因子,并将方差分解方法ANOVA成功应用于水文模型不确定性研究。为全面认识水文模型不确定性的本质和内在规律提供服务,为山洪灾害预报预警工作提供了更有效的建议和参考。

    一种具有景深调节功能的增强现实装置

    公开(公告)号:CN109459858A

    公开(公告)日:2019-03-12

    申请号:CN201811475960.8

    申请日:2018-12-04

    Abstract: 本发明公开了一种具有景深调节功能的增强现实装置,包括用于用户可直接佩戴的框架装置,所述框架装置上具有镜片,所述框架装置上固定有至少一个用于生成虚拟图像的投影装置,所述镜片内镶嵌有至少一个将所述虚拟图像反射至用户眼中的景深调节装置,所述景深调节装置由高反射率材料制成。本发明所公开的一种具有景深调节功能的增强现实装置可以提供大景深的单目、双目或多目的虚拟图像,且具有体积小、结构简单、易于维护等特点,其外观与普通眼镜几乎相同,不增加佩戴的负担。

    一种制备氢化C9石油树脂的方法

    公开(公告)号:CN104877077B

    公开(公告)日:2018-02-16

    申请号:CN201510354808.4

    申请日:2015-06-24

    Abstract: 本发明公开了一种制备氢化C9石油树脂的方法,属于树脂加氢技术领域。以Ni/ZnO催化剂作为加氢吸附脱硫,负载型金属催化剂作为加氢脱色催化剂,采用两段固定床连续加氢方式对树脂进行加氢反应,由于Ni/ZnO加氢吸附脱硫催化剂的使用,确保了负载型金属催化剂的使用寿命。所制得加氢树脂,树脂色相改善至水白且具有良好的热稳定性。本发明具有工艺简单,催化剂活性高,改善了树脂色度,提高了其热稳定性,软化点略有降低,且具有良好的经济效益及工业应用前景。

    一种可适应复杂场景的无畸变集成成像三维显示方法

    公开(公告)号:CN106898048A

    公开(公告)日:2017-06-27

    申请号:CN201710034517.6

    申请日:2017-01-19

    Abstract: 本发明提出了一种适用于复杂场景下无畸变集成成像三维显示方法,该方法首先利用Kinect获取三维场景的彩色图像和深度图像,并针对深度图像与彩色图像边界不一致问题,结合边缘信息进行干扰消除;然后,进一步针对深度图像的黑洞区域提出联合三边滤波进行填充,并将联合三边滤波器中的值域滤波器进行自适应处理消除深度图像的伪影效应;最后利用光场数学模型得到复杂场景的基元图像阵列,实现无畸变的三维集成成像显示。本发明不仅可以有效克服记录复杂场景时微透镜阵列的物理局限性,而且可以实现对复杂场景的无畸变集成成像三维显示。

Patent Agency Ranking