-
公开(公告)号:CN113658303A
公开(公告)日:2021-11-16
申请号:CN202110726704.7
申请日:2021-06-29
Applicant: 清华大学
Abstract: 本申请提出一种基于单目视觉的虚拟人生成方法:获取单目彩色图像;提取单目彩色图像的图像特征,并估计出人体躯干与四肢的姿态,完成对虚拟人物模型的躯干和肢体的重建;定位单目彩色图像中的手部位置信息,并截取单目彩色图像中的手部图像区域,提取手部图像区域的图像特征估计出手部旋转参数;定位单目彩色图像中的面部位置信息,并截取单目彩色图像中的面部图像区域,提取面部图像区域的图像特征估计出面部的形状参数与表情系数,生成人脸模型;利用手部旋转参数完成对手部的重建,并利用人脸模型替换三维人体模型的面部区域,完成对面部的重建,得到虚拟人物模型。由此,本申请提出了一种通过单目彩色图像实时生成虚拟人体模型的方法。
-
公开(公告)号:CN111582039A
公开(公告)日:2020-08-25
申请号:CN202010283457.3
申请日:2020-04-13
Applicant: 清华大学
Abstract: 本发明公开了一种基于深度学习与大数据的手语识别与转换系统及方法,该系统包括:图像采集模块、图像识别模块、信息匹配模块、内容整理模块、文字输出模块和语音输出模块;通过采集人体影像序列;提取人体影像序列的每一帧图像中的面部关键点坐标和手部关键点坐标;在手语动作数据库中搜索与面部关键点坐标和手部关键点坐标最匹配的自然语言语素,计算匹配值;根据相邻语素间的重复情况与匹配值对自然语言语素进行过滤;将保留的自然语言语素转换为文字并显示在屏幕上;根据文字语言数据库寻找与文字对应的语音,并进行播放。该系统能够方便快捷地将手语图像序列转换成其他语言的文字与语音输出,能够更加容易地理解手语的含义,提高沟通效率。
-
公开(公告)号:CN109377564A
公开(公告)日:2019-02-22
申请号:CN201811159988.0
申请日:2018-09-30
Applicant: 清华大学
IPC: G06T19/00
Abstract: 本发明公开了一种基于单目深度相机的虚拟试衣方法及装置,其中,方法包括以下步骤:步骤S1:通过深度相机获取RGB-D图像,并获取点云;步骤S2:获取点云到人体模型表面的平均距离作为能量,以得到最优参数;步骤S3:将RGB-D图像I中的RGB通道输入预先训练的神经网络,得到RGB-D图像中每个像素的类别,并结合深度通道得到点云中每个点的类别;步骤S4:获取当前用户的人体模型,以完成虚拟试衣。该方法通过集数据、重建人体与服装、对服装建模、迁移服装模型到新的人体模型上,以实现完整的虚拟试衣流程,并使用消费级深度相机进行虚拟试衣,从而可以实现以相对较低的成本进行虚拟试衣,简单易实现。
-
公开(公告)号:CN111582039B
公开(公告)日:2022-12-02
申请号:CN202010283457.3
申请日:2020-04-13
Applicant: 清华大学
Abstract: 本发明公开了一种基于深度学习与大数据的手语识别与转换系统及方法,该系统包括:图像采集模块、图像识别模块、信息匹配模块、内容整理模块、文字输出模块和语音输出模块;通过采集人体影像序列;提取人体影像序列的每一帧图像中的面部关键点坐标和手部关键点坐标;在手语动作数据库中搜索与面部关键点坐标和手部关键点坐标最匹配的自然语言语素,计算匹配值;根据相邻语素间的重复情况与匹配值对自然语言语素进行过滤;将保留的自然语言语素转换为文字并显示在屏幕上;根据文字语言数据库寻找与文字对应的语音,并进行播放。该系统能够方便快捷地将手语图像序列转换成其他语言的文字与语音输出,能够更加容易地理解手语的含义,提高沟通效率。
-
公开(公告)号:CN114283228A
公开(公告)日:2022-04-05
申请号:CN202111358131.3
申请日:2021-11-16
Applicant: 清华大学
Abstract: 本发明涉及一种基于单目彩色相机的虚拟人物驱动方法及系统,所述方法包括:获取单个人物主体的彩色视频帧序列和预先定义的虚拟人物三维模型;基于获取的单个人物主体的彩色视频帧序列确定各帧视频对应的三维关键点坐标;根据所述各帧视频对应的三维关键点坐标确定所述各帧视频对应的三维关节旋转信息;将各帧视频对应的三维关节旋转信息应用于虚拟人物三维模型中驱动虚拟人物。本发明提供的技术方案,能够准确、迅速地估计输入视频中的人体动作,并实时的将其迁移到虚拟人物上,使得用户方便快捷地创作更加丰富多样的数字媒体内容且计算量小。
-
公开(公告)号:CN109377564B
公开(公告)日:2021-01-22
申请号:CN201811159988.0
申请日:2018-09-30
Applicant: 清华大学
IPC: G06T19/00
Abstract: 本发明公开了一种基于单目深度相机的虚拟试衣方法及装置,其中,方法包括以下步骤:步骤S1:通过深度相机获取RGB‑D图像,并获取点云;步骤S2:获取点云到人体模型表面的平均距离作为能量,以得到最优参数;步骤S3:将RGB‑D图像I中的RGB通道输入预先训练的神经网络,得到RGB‑D图像中每个像素的类别,并结合深度通道得到点云中每个点的类别;步骤S4:获取当前用户的人体模型,以完成虚拟试衣。该方法通过集数据、重建人体与服装、对服装建模、迁移服装模型到新的人体模型上,以实现完整的虚拟试衣流程,并使用消费级深度相机进行虚拟试衣,从而可以实现以相对较低的成本进行虚拟试衣,简单易实现。
-
-
-
-
-