基于相机阵列的高动态十亿像素视频采集方法及装置

    公开(公告)号:CN108156383B

    公开(公告)日:2020-08-28

    申请号:CN201711481644.7

    申请日:2017-12-29

    申请人: 清华大学

    摘要: 本发明公开了一种基于相机阵列的高动态十亿像素视频采集方法及装置,多尺度相机阵列具有参考相机和至少一个长焦相机,其中,方法包括以下步骤:通过镜头焦距差距对所示至少一个长焦相机的长焦相机图像进行降采样;通过匹配算法获取至少一个长焦相机在参考相机中的位置;将对参考相机中的位置的图像块进行上采样,得到参考块;将长焦相机图像与参考块对齐,以将长焦相机图像嵌入参考相机图像中,并进行图像增强与颜色校正,得到视频采集结果。该方法可以实现十亿像素的视频合成,大大提高了相机阵列的灵活性,使得相机可以自由分配到有需要的区域,增加了CMOS传感器的利用率,且具有非常高的并行度。

    基于单帧RGBD图像的实时三维人体重建方法及系统

    公开(公告)号:CN111476884A

    公开(公告)日:2020-07-31

    申请号:CN202010239613.6

    申请日:2020-03-30

    申请人: 清华大学

    摘要: 本发明公开了一种基于单帧RGBD图像的实时三维人体重建方法及系统,其中,方法包括:将渲染后的数据集作为训练训练数据,并训练得到负责正面深度图优化的Gdf网络、正面彩色图像去光照的Gcf网络、预测背面深度图的Gdb网络和预测背面彩色图像的Gcd网络;将当前RGBD图像转换到正交视角下以输入到Gdf和Gcf网络中,得到优化和去光照后的正面图像,将正面图像输入到Gdb和Gcb网络中得到预测后的背面图像,并利用正面和背面图像将像素点投影到三维空间中得到带颜色的三维点集,并且将带颜色的三维点集按照邻接拓扑关系连接成带纹理的三维人体模型。该方法利用深度相机采集的RGBD图片精细且快速地进行人体的三维重建。

    衣物物理模型驱动的实时人体动态三维重建方法及系统

    公开(公告)号:CN111462300A

    公开(公告)日:2020-07-28

    申请号:CN202010147274.9

    申请日:2020-03-05

    申请人: 清华大学

    摘要: 本发明公开了一种衣物物理模型驱动的实时人体动态三维重建方法及系统,方法包括:使用深度相机对人体进行拍摄,获得彩色-深度图序列;使用输入深度序列进行参数化人体模型匹配、模型表面非刚性运动跟踪以及基于深度融合的模型更新;使用彩色图像序列,基于深度学习方法进行多视角三维人体语义分割,获得不同衣物的独立几何模型,结合参数化人体模型构成多层人体模型;根据深度序列输入,使用双层人体表面进行人体运动跟踪,获得对应人体姿态信息;根据人体运动,对衣物运动进行物理仿真,结合输入深度信息,构造深度拟合外力,约束衣物物理仿真结果与深度输入相匹配。该方法求解准确高效,可以实现具有衣物精细动态细节的人体动态三维重建。

    基于卷积神经网络的印刷品字符区域提取方法

    公开(公告)号:CN108021914B

    公开(公告)日:2020-07-28

    申请号:CN201711449254.1

    申请日:2017-12-27

    申请人: 清华大学

    摘要: 本发明公开了一种基于卷积神经网络的印刷品字符区域提取方法,包括:通过卷积神经网络从整个图像角度对字符区域进行探测,获取字符区域全局感知的字符候选图像;通过笔画探测器探测图像局部细节;将字符候选图像和图像局部细节进行融合,以提取出印刷品字符区域。该方法可以避免传统方法对于人工确定的阈值的依赖,实现用轮廓勾画出印刷品图像中的字符区域,并且画出的轮廓具有很好的视觉舒适度,有效提高泛化性能。

    声音驱动辅助侧脸图像的人脸重建方法及装置

    公开(公告)号:CN108230438B

    公开(公告)日:2020-06-19

    申请号:CN201711461073.0

    申请日:2017-12-28

    申请人: 清华大学

    IPC分类号: G06T17/00 G06N3/04

    摘要: 本发明公开了一种声音驱动辅助侧脸图像的人脸重建方法及装置,其中,方法包括:提取训练数据集;获取语音特征和表情参数的对应关系;提取每一帧对应的语音波形窗口的语音特征,并将特征信息存储到输入文件中;得到每一帧语音信息对应的人脸表情参数;获取侧脸的特征点信息,以通过深度学习方法获取侧脸图像与脸部特征点的对应关系;用已有的人脸模型拟合侧脸上的特征点位置,求解人脸的表情参数和形状参数,并将通过声音信息求解得到的表情参数引入进行加权;将拟合后的人脸模型进行纹理贴图和匹配,以获得最终的人脸重建结果。该方法可以使得较难通过侧脸图像获得的嘴部运动信息得到较好的跟踪和重建,有效提高重建的可靠性。

    手部运动重建方法和装置

    公开(公告)号:CN110443884A

    公开(公告)日:2019-11-12

    申请号:CN201910646553.7

    申请日:2019-07-17

    申请人: 清华大学

    IPC分类号: G06T17/00 G06T7/50 G06T7/80

    摘要: 本发明提出一种手部运动重建方法和装置,其中,方法包括:获取手部深度数据集,其中,手部深度数据集中的每个手部深度数据中包含手部深度图片信息及其对应的手部骨架坐标;控制预设手部模型分别根据手部深度数据集中每个手部深度数据调整姿态,获取姿态调整后的拟合手部模型的姿态参数;根据与每个手部深度数据对应的拟合手部模型的姿态参数高斯分布函数,以便于根据高斯分布函数进行手部运动重建。本发明解决了现有技术中人手的活动较为灵活复杂,与物体交互过程中常常伴随着严重遮挡的技术问题,通过同构单视点的RGB-D数据,可以获得更加精确的三维重建结果,在较简单的硬件条件下可以获得较好的物体与手部交互重建结果。

    基于卷积神经网络的视点数据生成方法和装置

    公开(公告)号:CN110443874A

    公开(公告)日:2019-11-12

    申请号:CN201910646645.5

    申请日:2019-07-17

    申请人: 清华大学

    摘要: 本发明提出一种基于卷积神经网络的视点数据生成方法和装置,其中,方法包括:获取多种训练场景的离散视点数据集;提取针对同一个训练场景的多帧视点数据中的第一视点的第一视点数据,和第二视点的第二视点数据,并获取第一相机参数,和第二相机参数;将第一彩色图像信息、第二彩色图像信息、第一相机参数和第二相机参数输入至预设的卷积神经网络;通过卷积神经网络估算视点数据;计算第三视点数据与估算视点数据之间的损失值,完成对卷积神经网络的训练,以便于视点图像的生成。本发明结合深度信息进行联合优化产生的新视点能够拥有更稳定的信息,并减少视差变化较大产生的重影和黑洞,实现稀疏视点输入的情况下连续一致的密集视点生成。

    基于网格形变的单图像人体三维重建方法及系统

    公开(公告)号:CN110428493A

    公开(公告)日:2019-11-08

    申请号:CN201910631389.2

    申请日:2019-07-12

    申请人: 清华大学

    IPC分类号: G06T17/00 G06T7/11 G06T5/50

    摘要: 本发明公开了一种基于网格形变的单图像人体三维重建方法及系统,其中,该方法包括以下步骤:采集单图片和人体模型,以及人体模型对应的初始人体三维模型,并利用初始人体三维模型构建人体模型数据库,以作为卷积神经网络的初始数据;对初始数据进行渲染得到卷积神经网络训练时的输入图片;利用数据流编程深度学习平台构建卷积神经网络,以根据输入图片提取出人体关节位置概率分布图;对单图片进行人体分割标注,得到人体分割标注图;根据单图片、人体分割标注图和人体关节位置概率分布图对卷积神经网络进行训练,得到最终人体三维模型。该方法可以更轻量且更好地表现人体模型细节特征,得到拥有更多三维几何细节特征的人体模型。

    高精度人体体态重建方法及系统

    公开(公告)号:CN110415336A

    公开(公告)日:2019-11-05

    申请号:CN201910630399.4

    申请日:2019-07-12

    申请人: 清华大学

    IPC分类号: G06T17/00 G06T7/90 G06N3/04

    摘要: 本发明公开了一种高精度人体体态重建方法及系统,其中,该方法包括以下步骤:获取人体视频,并选取人体视频的关键帧;搭建深度神经网络获取关键帧的人体轮廓信息和二维关节信息;构造参数化人体模型,利用人体轮廓信息和二维关节信息对参数化人体模型进行约束,获得初始化人体姿态参数;利用二维关节信息和人体轮廓信息优化初始化人体姿态参数,并选取人体视频的全部帧,构造联合约束,再次优化初始化人体姿态参数,利用高斯牛顿公式迭代两次优化过程,直至相邻两次迭代的能量差值小于预设阈值。该方法利用少数几个角度的人体RGB信息,可以更好地重建人体模型,使得重建得到的人体模型更精确地反应真实人体身材。

    基于三阶球面谐波的动态场景高精度实时三维重建方法及系统

    公开(公告)号:CN108776990A

    公开(公告)日:2018-11-09

    申请号:CN201810315991.0

    申请日:2018-04-10

    申请人: 清华大学

    IPC分类号: G06T17/00

    摘要: 本发明公开了一种基于三阶球面谐波的动态场景高精度实时三维重建方法及系统,其中,方法包括:通过RGBD相机对动态场景进行拍摄,以得到深度和彩色图像序列;将单张深度图像变换为三维点云,获取三维点云和重建模型顶点及参数化人体模型顶点之间的匹配点对;根据匹配点联合能量函数,对能量函数进行求解,以根据求解结果将重建模型的几何和表面反射率分别与三维点云和彩色图像序列进行对齐;通过深度图自适应性地更新和补全对其后的三维模型,并通过彩色图像自适应地补全和更新场景表面的反射率信息。该方法求解准确鲁棒,简单易行,运行速度为实时,拥有广阔的应用前景,可以在PC机或工作站等硬件系统上快速实现。