-
公开(公告)号:CN111899295A
公开(公告)日:2020-11-06
申请号:CN202010508803.3
申请日:2020-06-06
Applicant: 东南大学
Abstract: 一种基于深度学习的单目场景深度预测方法,适用于单目图片或视频,利用已校准的双目彩色图像对训练深度预测模型,在网络架构中使用了DenseNet卷积模块提取特征空间,使用其中的稠密块和过渡层,使网络中的每一层都直接与其前面层相连,实现特征的重复利用;改进了双目匹配损失,将深度预测问题视为图像重建问题,对输入的左视点彩色图和视差图采样生成虚拟彩色图和视差图,利用双目图像对的立体匹配算法,在RGB层面和视差层面,约束生成的虚拟视图和对应输入的右视点图像的一致性,从而获得更好的深度;改进了深度平滑损失,本发明能够生成高质量的密集深度图,有效改善单目场景深度预测中遮挡产生的伪影问题,可满足室内外多个现实场景的2D转3D需求。
-
公开(公告)号:CN111695569A
公开(公告)日:2020-09-22
申请号:CN202010397565.3
申请日:2020-05-12
Applicant: 东南大学
Abstract: 本发明公开了一种基于多分割图融合的图像像素级分类方法。该方法有三个主要步骤,首先在多个分割图间引入指导机制,使用较高精度分割图指导较低精度分割图提高精度。接着引入一种共识机制,在各个图中可能产生分类冲突的边缘区域像素点间,通过协商策略达成分类共识。最后使用一种基于全卷积神经网络的融合策略,有效结合前述两种机制,得到最终输出。本发明能够有效地解决边缘区域的像素分类冲突问题,将多个分割图进行融合得到粒度更细的像素级分类结果。可与多种技术结合使用,包括但不限于深度神经网络、随机森林与支持向量机等有监督学习方法。该方法的使用,可以有效弥补现有方法对冲突像素点重视的不足,得到质量更高的融合分割结果。
-
公开(公告)号:CN110009567A
公开(公告)日:2019-07-12
申请号:CN201910281197.3
申请日:2019-04-09
Applicant: 三星电子(中国)研发中心 , 三星电子株式会社 , 东南大学
Abstract: 本申请实施例公开了用于鱼眼镜头的图像拼接方法和装置。该方法的一具体实施方式包括:获取第一鱼眼镜头拍摄的第一图像和第二鱼眼镜头拍摄的第二图像,第二鱼眼镜头的拍摄区域与第一鱼眼镜头的拍摄区域存在部分重叠;根据针对第一鱼眼镜头和第二鱼眼镜头预先建立的映射矩阵展开第一图像和第二图像,得到第一展开图像和第二展开图像;根据针对第一鱼眼镜头和第二鱼眼镜头预先建立的旋转矩阵对第二展开图像进行旋转;拼接第一展开图像和旋转后的第二展开图像。该实施方式提高了拼接鱼眼镜头拍摄到的图像的效率。
-
公开(公告)号:CN109492796A
公开(公告)日:2019-03-19
申请号:CN201811188233.3
申请日:2018-10-12
Applicant: 东南大学
Abstract: 本发明公开了一种城市空间形态自动分区方法与系统,方法包括:获取给定范围内的城市空间形态基础数据,得到多个空间单元;针对每个空间单元,按照设定的多个城市空间形态指标自动计算,生成城市空间形态特征汇总表;将城市空间形态特征汇总表所对应的矩阵采用无监督聚类算法进行聚类,聚类过程中,设置不同的聚类参数进行多次聚类运算,并对各聚类结果进行评分,确定最佳聚类结果;根据最佳聚类结果,得到城市空间形态自动分区的结果;并进一步可分析指标之间的相关性,得到关键影响指标。本发明可以客观而全面地洞悉城市空间形态的特征,进而形成自动分区的结果及关键影响指标,避免了传统方法中容易出现的主观判断或考察维度单一等问题。
-
公开(公告)号:CN108986195A
公开(公告)日:2018-12-11
申请号:CN201810668844.1
申请日:2018-06-26
Applicant: 东南大学
Abstract: 本发明公开了一种结合环境映射和全局光照渲染的单镜头混合现实实现方法,包括对虚拟物体进行定位,并生成现实场景模型;对现实场景模型和虚拟物体进行体素化及过滤;环境贴图生成,将现实场景图像采用均匀分配方式切分,再进行翻转映射为环境贴图;锥追踪渲染,采用加入环境映射的锥追踪方式渲染输出成为合成图像。本发明能够利用GPU的强大图形计算能力,增强一般的混合现实系统的输出效果,能够在单镜头的条件下模拟光亮物体对周围环境的反映效果。
-
公开(公告)号:CN104796641B
公开(公告)日:2018-11-30
申请号:CN201510164960.6
申请日:2015-04-09
Applicant: 康佳集团股份有限公司 , 东南大学
IPC: H04N5/44 , H04N13/302 , H04N13/332 , H04N13/398 , H04N13/359
Abstract: 本发明公开了眼镜式和自由式二合一立体电视机;包括:电视机主板、数据处理电路、液晶光栅驱动电路、液晶光栅、显示液晶驱动电路、显示液晶屏、眼镜同步发射器。液晶光栅驱动电路用于控制液晶光栅工作在透明玻璃模式的无源模式或狭缝光栅模式的有源模式;所述电视机主板还用于输出眼镜同步信号给眼镜同步发射器,对外发射眼镜同步信号,以控制3D眼镜接收到同步信号,实现观察者的左眼看到左眼图像,右眼看到右眼图像。本发明即具有眼镜式3D电视体验3D时串扰小、3D效果好的优点,又具有自由式3D电视无须佩戴眼镜的优点,同时,还解决了现有自由式3D电视因粘贴柱镜光栅膜导致图像分辨率受损的问题。
-
公开(公告)号:CN107135388A
公开(公告)日:2017-09-05
申请号:CN201710392000.4
申请日:2017-05-27
Applicant: 东南大学
Abstract: 本发明公开了一种光场图像的深度提取方法。本发明的方法包括两个阶段:光场重构和深度提取,所述光场重构阶段包括:S1:将输入的光场数据进行预处理后根据该图像的图像中心位置重构出光场,生成多视点图像;所述深度提取阶段包括:S2:对视点图像提取极平面图,计算视差图,优化得到最优深度图。本发明能够对光场数据处理后获得清晰多视点图像并进行精确深度提取。
-
公开(公告)号:CN103198330B
公开(公告)日:2016-08-17
申请号:CN201310086776.5
申请日:2013-03-19
Applicant: 东南大学
IPC: G06K9/66
Abstract: 本发明公开了一种基于深度视频流的实时人脸姿态估计方法,其步骤包括抽样及训练和实时估计两个阶段,在抽样及训练阶段,获取各个脸部角度的景深图;然后对各个角度的景深图做随机取样,得到训练样本集;再采用监督学习方法做训练,得到分类器,在实时估计阶段,首先提取采集设备输出的深度视频流中的实时人脸景深图并转化为积分图;再对积分图进行随机切片抽样,并利用训练得到的分类器对样本进行分类,得到若干个估计结果;对这些结果剔除异常结果并进行加权平均,得到最终的人脸姿态结果。本发明提供的基于深度视频流的实时人脸姿态估计方法,避免了光照等因素对最终结果的影响,并且拥有良好的实时性和准确性。
-
公开(公告)号:CN104869386A
公开(公告)日:2015-08-26
申请号:CN201510164850.X
申请日:2015-04-09
Applicant: 东南大学
IPC: H04N13/00
Abstract: 本发明公开了一种基于分层处理虚拟视点合成方法,首先分别左右视点的深度图进行深度修正和色彩校正的预处理,然后在采用分层3D Warping生成虚拟视点的图像,根据分层信息融合由DIBR生成的左右两幅参考视点的彩色图像和深度图像,再对融合后的深度图像进行滤波处理,然后根据该深度图对虚拟视点图像进行修复,消除图像中的空洞,最后进行图像插值并且后处理,移除图像中的鬼影现象,最终生成高质量的新视点。本方法能够根据任意两个视点快速合成中间视点,并且新合成视点的图片质量较高。
-
-
-
-
-
-
-
-