-
公开(公告)号:CN104318615B
公开(公告)日:2017-04-19
申请号:CN201410597249.5
申请日:2014-10-29
Applicant: 中国科学技术大学
IPC: G06T17/00
Abstract: 本发明公开了一种发音器官三维建模方法,该方法包括:从可见光图像中提取外部表观发音器官轮廓,并将该轮廓与发音器官通用三维几何模型进行匹配,获得重建后的外部表观发音器官三维模型;从X光图像中提取口腔内部发音器官轮廓,并将该轮廓与所述发音器官通用三维几何模型进行匹配,获得重建后的口腔内部发音器官三维模型;利用可见光图像和X光图像的匹配关系来融合重建后的外部表观发音器官三维模型与口腔内部发音器官三维模型,从而得到完整的发音器官三维模型。本发明公开的方法,可以准确、快速的获得一种能从内到外地反映发音器官在发音时真实形状的发音器官模型。
-
公开(公告)号:CN103279970B
公开(公告)日:2016-12-28
申请号:CN201310173929.X
申请日:2013-05-10
Applicant: 中国科学技术大学
IPC: G06T13/40
Abstract: 电脑游戏等方面应用的有效性。本发明提供一种实时的语音驱动人脸动画的方法,该方法有如下特性:(1)基于真实捕捉的语音参数和视觉参数,采用高斯混合模型和马尔可夫模型结合的方法实现语音参数到视觉参数的转换;(2)实现了语音参数到视觉参数的直接转换,既考虑了过去视觉特征对当前视觉特征的影响,又不依赖于语音识别系统提供的音素序列作为转换的前提;(3)能够满足实时性要求以及非实时性要求;(4)能够产生高真实感的人脸动画,也能产生具有动漫效果的人脸动画;(5)可以(56)对比文件Barry-John Theobald等.Lips2008:Visualspeech synthesis challenge《.9th AnnualConference of the International-Speech-Communication-Association(INTERSPEECH2008)》.2008,第2310-2313页.周东生等.人脸动画中语音可视化算法研究进展《.计算机工程与应用》.2007,第43卷(第9期),第36-39页.Thibaut Weise等.Realtime performance-based facial animation《.ACM TRANSACTIONSON GRAPHICS》.2011,第30卷(第4期),Wei Han等.IMPROVED MINIMUM CONVERTEDTRAJECTORY ERROR TRAINING FOR REAL-TIMESPEECH-TO-LIPS CONVERSION《.IEEEInternational Conference on Acoustics,Speech and Signal Processing(ICASSP2012)》.2012,第4513-4516页.谢琛.基于主动形状模型的人脸特征提取技术研究与应用《.万方学位论文数据库》.2011,Erika Chuang等.Performance DrivenFacial Animation using BlendshapeInterpolation《.http://graphics.stanford.edu/~echuang/face/report2.pdf》.2002,Nicolaos Ersotelos等.Building highlyrealistic facial modeling and animation:asurvey《.VISUAL COMPUTER》.2008,第24卷(第1期),第13-30页.吴昊等.改进的基于主成分分析的三维人脸形状建模《.光学技术》.2008,第34卷(第4期),第568-571页.
-
公开(公告)号:CN101609507B
公开(公告)日:2016-03-09
申请号:CN200910152061.9
申请日:2009-07-28
Applicant: 中国科学技术大学
CPC classification number: G06K9/00348
Abstract: 本发明提出一种步态识别方法,包括立体视觉标定、训练和识别三个部分,具体步骤如下:立体视觉的摄像机标定;获取立体步态图像序列对;提取运动目标轮廓;立体匹配得到三维立体轮廓点;提取立体步态特征;使用主分量分析方法对所述立体步态特征进行降维;采用最近邻准则进行分类与识别。本发明所提取的立体步态特征具有很好的表征性和强鲁棒性,能够有效地提高步态身份认证的识别率。
-
公开(公告)号:CN103324917A
公开(公告)日:2013-09-25
申请号:CN201310251281.3
申请日:2013-06-24
Applicant: 中国科学技术大学
IPC: G06K9/00
Abstract: 本发明提供了一种手写输入设备及其数据采集方法。该手写输入设备同时采集以手指作为书写工具的书写过程中产生的手写笔迹信息和手指指纹信息,属于计算机信息领域和电子领域。本装置的信息获取器件包括指纹传感器,显示屏和多维力传感器,其中多维力传感器位于显示屏的下部,显示屏位于多维力传感器的上部,指纹传感器位于显示屏的上部。所述的指纹传感器用于实现对指纹图像信息的获取,多维力传感器用于实现对手指施加在书写平面上压力信息的获取,显示屏则用于实现对手写轨迹信息的显示,并呈现给用户。相对于分别采集手写笔迹以及其它生理特征,同时采集以手指作为书写工具的书写过程中产生的手写笔迹信息和手指指纹信息能有效增加攻击的难度,从而提高认证系统的安全。
-
公开(公告)号:CN100586199C
公开(公告)日:2010-01-27
申请号:CN200810090761.5
申请日:2008-03-30
Applicant: 深圳华为通信技术有限公司 , 中国科学技术大学
Abstract: 本发明公开了一种视差获取方法和装置,涉及计算机视觉技术,能够获得更准确的视差。本发明实施例提供的视差获取方法包括:根据初始的视差参数获取被匹配图像中各区域的匹配能量,所述被匹配图像包括至少两个所述区域;在所述各区域中,为当前区域确定至少一个操作区域,所述当前区域为所述各区域中正在处理的区域;根据所述当前区域和所述各操作区域的匹配能量,获取当前区域的优化视差参数;根据所述当前区域的优化视差参数获取当前区域的视差。
-
公开(公告)号:CN100468465C
公开(公告)日:2009-03-11
申请号:CN200710023778.4
申请日:2007-07-13
Applicant: 中国科学技术大学
Abstract: 本发明基于虚拟图像对应的立体视觉三维人脸建模方法,特征是利用一个参考人脸的三维模型估计输入立体图对中人脸的位姿参数,从而生成相同姿态下的参考人脸的虚拟图像对;由于虚拟图像之间的对应是已知的,通过计算同一姿态下输入人脸与参考人脸之间的对应关系,将虚拟图像对应扩展到输入立体图像的对应,大大改进了人脸立体图对的匹配效果,使由立体视差计算得到的人脸点云数据更为准确;通过将三维点云优化问题转化为一维曲线优化问题而大大提高了处理速度;最后从优化的点云中建立人脸三维表面,进行纹理映射,得到高真实感的人脸三维模型。本发明能够满足各种实际应用场合对三维人脸模型的需求,实用、快速、准确,有着广阔的应用前景。
-
公开(公告)号:CN101101672A
公开(公告)日:2008-01-09
申请号:CN200710023778.4
申请日:2007-07-13
Applicant: 中国科学技术大学
Abstract: 本发明基于虚拟图像对应的立体视觉三维人脸建模方法,特征是利用一个参考人脸的三维模型估计输入立体图对中人脸的位姿参数,从而生成相同姿态下的参考人脸的虚拟图像对;由于虚拟图像之间的对应是已知的,通过计算同一姿态下输入人脸与参考人脸之间的对应关系,将虚拟图像对应扩展到输入立体图像的对应,大大改进了人脸立体图对的匹配效果,使由立体视差计算得到的人脸点云数据更为准确;通过将三维点云优化问题转化为一维曲线优化问题而大大提高了处理速度;最后从优化的点云中建立人脸三维表面,进行纹理映射,得到高真实感的人脸三维模型。本发明能够满足各种实际应用场合对三维人脸模型的需求,实用、快速、准确,有着广阔的应用前景。
-
公开(公告)号:CN103309513B
公开(公告)日:2016-02-03
申请号:CN201310251017.X
申请日:2013-06-24
Applicant: 中国科学技术大学
IPC: G06F3/041 , G06F3/0354 , G06K9/00
Abstract: 本发明提供了一种手写输入设备及数据采集方法。该手写输入设备同时采集书写过程中产生的手写笔迹信息和持笔手手掌侧表面信息,属于计算机信息领域和电子领域。本装置的信息获取器件包括侧掌纹传感器,显示屏和天线阵列,其中天线阵列位于显示屏的下部,显示屏位于天线阵列的上部,侧掌纹传感器位于显示屏的上部。所述的侧掌纹传感器用于实现对侧掌纹二维图像信息获取,天线阵列用于实现对手写笔迹信息的获取,显示屏则用于实现对手写轨迹信息的显示,并呈现给用户。相对于分别采集手写笔迹以及其它生理特征,同时采集书写过程中产生的手写笔迹信息和持笔手手掌侧掌纹信息能有效增加攻击的难度,从而提高认证系统的安全。
-
公开(公告)号:CN103218841B
公开(公告)日:2016-01-27
申请号:CN201310150819.1
申请日:2013-04-26
Applicant: 中国科学技术大学
IPC: G06T13/20
Abstract: 本发明提供一种结合生理模型和数据驱动模型的三维发音器官动画方法,涉及计算机图形学、智能人机交互等技术领域,该方法能够产生高真实感的发音器官动画,该方法有如下特性:(1)利用了发音器官的生理模型和运动机理,从而可以模拟发音器官的稠密运动和发音器官之间的碰撞挤压等复杂运动,使得发音器官动画更具真实感;(2)采集丰富的包含各种协同发音现象的语料库,并同步地利用EMA传感器记录下三维发音器官上特征点的运动轨迹,接着通过训练上述数据集来建立能够描述连续语音中发音器官动态变化特性的、与发音过程协调一致的隐马尔可夫模型,从而使得发音器官动画与发音过程协调一致的同时,能够充分描述连续语音中的可视化协同发音现象。
-
公开(公告)号:CN104077798A
公开(公告)日:2014-10-01
申请号:CN201410313358.X
申请日:2014-07-01
Applicant: 中国科学技术大学
IPC: G06T13/20
Abstract: 本发明公开了一种可形变物体的高真实感动画合成方法,该方法包括:基于扫描设备重建可形变物体的精确三维网格模型;从该三维网格模型中提取若干用于驱动该可形变物体发生形变的网格点作为控制点,并将若干控制点的真实位移作为输入,获得形变后的若干控制点的位置;根据控制点形变后的位置,并将该可形变物体体积不变作为约束条件,通过最小化形变能量函数,计算得到该三维网格模型中其余网格点形变后的位置,从而获得该可形变物体的高真实感动画。通过采用本发明公开的方法,简化了工作过程,且可合成较高真实度的可形变物体的动画。
-
-
-
-
-
-
-
-
-