-
公开(公告)号:CN110008585A
公开(公告)日:2019-07-12
申请号:CN201910263248.X
申请日:2019-04-02
Applicant: 清华大学深圳研究生院
IPC: G06F17/50
Abstract: 本发明公开了基于动量梯度的散射波前光场估计加速方法,包括:在散射光场成像系统中于深度z1、z2下采集光强为|Y1|2、|Y2|2的两个光强图像;以光强的算术平方根分别作为深度z1、z2的散射波前光场估计初始值,并设定对应的动量梯度初始值为与两个光强具有相同维数的零值矩阵;利用基于光场幅值约束的散射波前光场估计迭代算法估计两个深度的散射波前光场;迭代过程利用光场的传播以及幅值替换得到的初始梯度更新动量梯度,并利用动量梯度更新散射波前光场估计值直至迭代收敛时,得到两个深度的散射波前光场估计值Y'1和Y'2;使用光场的二次传播算法将Y'1和Y'2传播到目标深度,并对得到的两个传播散射波前光场在复数域求平均,得到目标深度的散射波前光场估计值。
-
公开(公告)号:CN109993764A
公开(公告)日:2019-07-09
申请号:CN201910266825.0
申请日:2019-04-03
Applicant: 清华大学深圳研究生院
Abstract: 本发明公开了基于频域能量分布的光场深度估计方法,包括:提取光场图的中心子孔径图像,划分为空间块进行频域变换;针对每一空间块,从频域分布提取一致性描述子和方向性描述子;根据每个空间块的一致性描述子来判断空间块为遮挡区域或非遮挡区域,并将判断结果应用于空间块对应的角度块;对于遮挡区域,结合角度块的中心角像素、空间块的边缘像素和方向性描述子选择符合一致性描述的子角度块;针对非遮挡区域,提取整个角度块的聚焦张量;针对遮挡区域,提取子角度块的聚焦张量;建立代价方程;最大化代价方程实现光场深度估计。本发明在保证非遮挡区域深度准确性的同时提高了遮挡区域的深度准确性,使深度突变处的细节更加丰富。
-
公开(公告)号:CN109932816A
公开(公告)日:2019-06-25
申请号:CN201910319306.6
申请日:2019-04-19
Applicant: 清华大学深圳研究生院
Abstract: 本发明公开了一种基于连通域优化的超记忆效应范围非侵入式散射成像方法,包括采集待成像的样本的散斑信息;计算散斑信息的自相关图像,根据自相关图像得到自相关图形;根据自相关图形得到重建结果,利用连通域优化重建结果;计算优化后的重建结果的自相关并归一化,以计算得到一个物体的初始自相关;依次根据前一步骤得到的一个物体的自相关得到重建结果,利用连通域优化计算优化后的重建结果的自相关并归一化,并结合自相关图形计算得到另一物体的自相关;循环前述计算两个物体的自相关的步骤直到预定的循环次数,再利用相位恢复算法和计算得到的两个物体的自相关进行空域重构,实现非侵入式成像。本发明能够实现大视角范围的多个物体散射成像。
-
公开(公告)号:CN109708612A
公开(公告)日:2019-05-03
申请号:CN201811510810.6
申请日:2018-12-11
Applicant: 清华大学深圳研究生院
Abstract: 本发明公开了一种光场相机的盲标定方法,包括:在主透镜与传感器之间插入微透镜阵列以搭建初始的光场相机2.0结构,并分别测量主透镜和微透镜阵列分别与测量起始面的初始距离;固定传感器以及微透镜阵列的位置,向远离微透镜阵列的方向移动主透镜,并实时记录传感器采集的图像;测量依照光场相机1.0结构清晰成像时主透镜与测量起始面之间的距离;根据主透镜和微透镜阵列分别与测量起始面的初始距离、以及依照光场相机1.0结构清晰成像时主透镜与测量起始面之间的距离,建立光场相机2.0结构的盲标定模型,计算得到微透镜阵列的结构参数,并对光场相机2.0结构进行标定处理。本发明能够准确获取微透镜阵列与传感器的位置关系,实现对光场相机的高精度搭建。
-
公开(公告)号:CN108460747A
公开(公告)日:2018-08-28
申请号:CN201810326616.6
申请日:2018-04-12
Applicant: 清华大学深圳研究生院
Abstract: 本发明公开了一种光场相机的子孔径合成去遮挡方法,包括:A1:输入被遮挡物对齐的多幅子孔径图像;A2:分别提取多幅所述子孔径图像的深度图和运动矢量;A3:对步骤A2中提取出的每一幅所述子孔径图像的深度图和运动矢量进行融合分别得到相应的融合图像;A4:对步骤A3中得到的所述融合图像进行聚类,并在相应的所述子孔径图像中进行像素筛选;A5:对所有的所述子孔径图像经步骤A4筛选出来的像素取平均,获得孔径合成图像。本发明能够获取较好的视觉效果。
-
公开(公告)号:CN104865234B
公开(公告)日:2017-12-12
申请号:CN201510299810.6
申请日:2015-06-03
Applicant: 清华大学深圳研究生院
Abstract: 一种非侵入式半透明成像装置的成像方法,包括如下步骤:依次改变激光与所述非侵入式半透明成像装置的垂直轴之间的夹角θ,每次改变角度差Δθ,并使激光穿过所述半透明介质,在所述荧光物体上形成对应的荧光,所述荧光采集装置等间距分别采集每个夹角θ对应的荧光,得到采样荧光强度矩阵Ys_new;其中,所述角度差Δθ是的大于等于2的设定整数倍,其中,λ和w分别为激光波长和激光束直径;根据所述采样荧光强度矩阵Ys_new重建得到重建的荧光强度矩阵满足根据所述重建的荧光强度矩阵重建所述荧光物体的图像。本发明使非侵入式半透明成像过程更加高效。
-
公开(公告)号:CN107424195A
公开(公告)日:2017-12-01
申请号:CN201710597657.4
申请日:2017-07-20
Applicant: 清华大学深圳研究生院
Abstract: 一种光场距离估计方法,包括:S1、标定成像系统并拍摄光场图像;S2、对光场图像进行重聚焦;S3、用距离估计模型获取重聚焦光场图像上待估计物体所在平面到成像系统距离的初始估计值;S4、获取成像系统参数,建立成像模型,模拟得到成像系统在初始估计值下的点扩散函数;S5、将点扩散函数和重聚焦光场图像反卷积得到待估计物体进一步清晰的光场图像;S6、采用距离估计模型来获取步骤S5得到的光场图像上待估计物体所在平面到成像系统的距离的估计值,并根据该估计值更新点扩散函数;S7、判断步骤S6得到的估计值是否满足收敛条件,若是则输出距离估计结果;若否,则以更新的点扩散函数和步骤S5得到的光场图像作为步骤S5中反卷积的对象,返回步骤S5。
-
公开(公告)号:CN105224290B
公开(公告)日:2017-11-07
申请号:CN201510618811.2
申请日:2015-09-24
Applicant: 清华大学深圳研究生院
IPC: G06F9/38
Abstract: 本发明公开了一种图像负载均衡处理方法及装置,方法包括如下步骤:将原始图像f(x,y)沿纵向和横向划分为多个图像块;计算纵向边界的左右两个图像块的纹理特征,移动纵向边界使纵向边界左右两个图像块之间的纹理特征相似度最大;计算横向边界的上下两个图像块的纹理特征,移动横向边界使纵向边界上下两个图像块之间的纹理特征相似度最大;将确定的最终的横向边界和纵向边界对应的最终图像块分别分配给不同的计算单元进行并行处理;通过如下算法计算图像块的纹理特征X(i):μcol(i)=∑xm,n(i)/(Wp×Hp),X(i)=∑|xm,n(i)‑μcol(i)|。本方法可以实现不同的并行处理单元之间的负载均衡,降低功耗。
-
公开(公告)号:CN107295264A
公开(公告)日:2017-10-24
申请号:CN201710648322.0
申请日:2017-08-01
Applicant: 清华大学深圳研究生院
Abstract: 本发明公开了一种基于单应性变换的光场数据压缩方法,包括:输入原始光场数据集Φ(S1,S2,…,Si),将其中的子孔径图像Si分为中心子孔径图像Ci和相应的邻域子孔径图像Ai-j;根据中心子孔径图像Ci和相应的邻域子孔径图像Ai-j求取单应性矩阵Hi-j,基于单应性变换将邻域子孔径图像Ai-j投影到中心子孔径图像Ci所在成像平面得到变换后的邻域子孔径图像A′i-j,将变换后的邻域子孔径图像A′i-j与中心子孔径图像Ci相减得到残差图Ri-j;对原始光场数据集中全部的中心子孔径图像Ci和残差图像Ri-j分别进行扫描,生成中心视频序列VC和残差视频序列VR;对中心视频序列VC和残差视频序列VR分别进行压缩。本发明有效降低空域内的冗余信息,进而实现编码效率的有效提升。
-
公开(公告)号:CN104754359B
公开(公告)日:2017-07-21
申请号:CN201510039515.7
申请日:2015-01-26
Applicant: 清华大学深圳研究生院
IPC: H04N19/597 , H04N19/147
CPC classification number: H04N19/147 , H04N13/194 , H04N13/271 , H04N19/105 , H04N19/176 , H04N19/597
Abstract: 本发明公开了一种二维自由视点视频的深度图编码失真预测方法,包括如下步骤:A1:输入两个以上视点立体视频的纹理图与深度图的序列,视点位置呈一维均匀分布;A2:利用当前待编码视点及其相邻视点的纹理图和深度图,采用视点合成算法,合成当前待编码视点与第一相邻视点的第一中间视点的纹理图,并合成当前待编码视点与第二相邻视点的第二中间视点的纹理图;A3:利用A2的合成结果,记录各像素点的合成特征,并生成失真预测权重;A4:根据A3中的合成特征和失真预测权重,采用编码像素失真预测模型,经过系列计算得总失真。本发明能提高二维自由视点视频的深度图编码失真预测的准确性,避免深度图编码过程中反复执行合成算法,降低了计算复杂度。
-
-
-
-
-
-
-
-
-