-
公开(公告)号:CN117635848A
公开(公告)日:2024-03-01
申请号:CN202311738405.0
申请日:2023-12-18
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供了用非标定相机位姿的图像估计三维人体姿态的系统,包括:2D人体姿态估计网络,被配置为:利用神经网络从多视角图像组中提取目标对象的2D人体姿态估计结果,其中,所述多视角图像组是由相机组从多个视角同步采集目标对象的图像的集合;概率三角化模型,被配置为:获取所述相机组的位姿分布,利用蒙特卡洛法从相机组的位姿分布中采样多组相机位姿参数,根据采样的多组相机位姿参数和所述2D人体姿态估计结果,生成表征各关节点空间位置的显式3D热图;3D人体姿态重建模块,被配置为:利用三维卷积网络对所述显式3D热图进行处理,估计3D人体姿态。
-
公开(公告)号:CN110544309A
公开(公告)日:2019-12-06
申请号:CN201910688868.8
申请日:2019-07-29
Applicant: 中国科学院计算技术研究所
Abstract: 本发明公开了一种基于大尺度网格模型的实时稀疏编辑方法,包括:构建由相同网格拓扑的模型组成的模型库;提取该模型的原始特征向量,将该原始特征向量转化为可以编码模型大尺度形变的第一特征向量,并形成该模型库的第一特征向量集合;对该第一特征向量集合进行全局稀疏优化,提取第二特征向量集合;确定目标模型上的控制顶点位置;以该目标模型的特征向量为该第二特征向量集合的一个线性组合向量,对该线性组合向量进行稀疏优化,得到编辑特征向量;根据该控制顶点位置和该编辑特征向量,得到该目标模型的形变模型。本发明的方法可以借助模型库的先验信息,通过稀疏混合的方法自动选择较少数量的变形特征,实时生成更加真实自然可靠的编辑结果。
-
公开(公告)号:CN106023287B
公开(公告)日:2019-06-18
申请号:CN201610373694.2
申请日:2016-05-31
Applicant: 中国科学院计算技术研究所
IPC: G06T13/20
Abstract: 本发明提出一种数据驱动的交互式三维动画合成方法及系统,该方法包括输入具有相同网格拓扑的模型库,对所述模型库中的模型进行分块简化,生成简化模型,并记录所述模型的面片与原始模型的面片之间的对应关系,获取所述简化模型的特征向量,组成所述简化模型的特征向量空间;给定需要进行合成的初始模型S与终点模型T,根据所述对应关系,获取简化模型的初始模型S’与终点模型T’,通过计算所述初始模型S’与所述终点模型T’所在流形上的测地线路径,获取从所述始模型S’与所述终点模型T’的模型序列M’,根据所述对应关系,依次计算所述初始模型S’与所述终点模型T’的局部坐标架与顶点坐标,得到从原始初始模型S与终点模型T上的模型序列M。
-
公开(公告)号:CN106023287A
公开(公告)日:2016-10-12
申请号:CN201610373694.2
申请日:2016-05-31
Applicant: 中国科学院计算技术研究所
IPC: G06T13/20
CPC classification number: G06T13/20
Abstract: 本发明提出一种数据驱动的交互式三维动画合成方法及系统,该方法包括输入具有相同网格拓扑的模型库,对所述模型库中的模型进行分块简化,生成简化模型,并记录所述模型的片面与原始模型的面片之间的对应关系,获取所述简化模型的特征向量,组成所述简化模型的特征向量空间;给定需要进行合成的初始模型S与终点模型T,根据所述对应关系,获取简化模型的初始模型S’与终点模型T’,通过计算所述初始模型S’与所述终点模型T’所在流形上的测地线路径,获取从所述始模型S’与所述终点模型T’的模型序列M’,根据所述对应关系,依次计算所述初始模型S’与所述终点模型T’的局部坐标架与顶点坐标,得到从原始初始模型S与终点模型T上的模型序列M。
-
公开(公告)号:CN101840580B
公开(公告)日:2011-11-16
申请号:CN201010160883.4
申请日:2010-04-27
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及一种人体链状结构模型的实现方法及系统。该实现方法包括:步骤1,抽取人体运动的三维特征点序列的关键帧序列;步骤2,根据绝对朝向算法和刚体距离约束得到人体链状结构模型的候选组合,用户从候选组合中选择正确建立的人体链状结构模型。本发明能够建立任何链状结构个体的模型,在简化了建立模型过程的同时,也为运动跟踪提供了良好的先验模型和基础。给定人体运动的三维特征点序列不需要经过复杂的人工操作,就能够得到直接标注好的人体结构模型,简化了运动跟踪时,人体结构模型初始化的工作。建立好的人体结构模型可以直接应用到运动跟踪中,方便快捷。
-
公开(公告)号:CN101894377A
公开(公告)日:2010-11-24
申请号:CN201010199191.0
申请日:2010-06-07
Applicant: 中国科学院计算技术研究所
IPC: G06T7/20
Abstract: 本发明涉及三维标记点序列的跟踪方法及系统,方法包括:步骤1,读取人体链状结构模型,确定刚体和特征点;步骤2,获得运动图像的帧,每一帧具有多个图像,图像中具有二维标记点,第一帧具有已识别三维标记点;步骤3,在当前帧的图像中投影前一帧已识别三维标记点,依据投影搜素出特征点对应的二维标记点,由二维标记点重构出特征点的候选三维标记点,组成候选标记点集合;步骤4,从刚体的候选标记点集合中枚举出标记点组合,计算对应的标注似然函数值,保留最大的值对应的标记点组合,识别标记点组合中的候选三维标记点为特征点在当前帧中的三维标记点。本发明能够从捕获到的标记点序列中,正确跟踪人体链状结构模型的刚体中的各个特征点。
-
公开(公告)号:CN101738292A
公开(公告)日:2010-06-16
申请号:CN200910237155.6
申请日:2009-11-06
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及一种人体环节惯性参数的估测方法及系统。该估测方法包括:步骤1,获取被测个体的运动捕获数据;步骤2,测量被测个体的总质量;步骤3,建立被测个体的人体模型;步骤4,依据被测个体的运动捕获数据、被测个体的总质量以及被测个体的人体模型计算被测个体的人体环节惯性参数。本发明无需使用人体密度信息库,适用于任何民族,性别以及群体,如运动员;给定运动捕获数据,不需要经过复杂的测量过程或者人工操作,就能够直接得到人体各环节的惯性参数,简化了人体环节惯性参数的估测过程;在估测人体环节惯性参数的同时,运动捕获数据也得到了校正,优化得到的人体环节惯性参数与运动数据,能够直接应用于人体运动分析。
-
公开(公告)号:CN1766929B
公开(公告)日:2010-05-12
申请号:CN200510055214.X
申请日:2005-03-16
Applicant: 中国科学院计算技术研究所
Abstract: 本发明公开了一种基于三维运动数据库的运动对象的运动重构方法,用于实现对视频中的二维运动对象的运动重构,得到一个三维的运动对象;含以下步骤:提取运动视频中运动对象的轮廓,得到运动对象的二维轮廓信息;对运动视频做定标操作,得到投影矩阵;利用投影矩阵和虚拟对象模型从三维运动数据库中建立二维运动对象轮廓库;寻找参考运动数据;以视频数据为约束条件,对参考运动数据进行变形,得到与视频序列对应的重构的三维动作序列;对重构所得的各帧的三维数据进行平滑连接,得到连续的三维动作。本发明的优点:有良好的通用性,无论动作简单或复杂,只要有较为完整的运动数据库都能够实现运动对象的运动重构;同时适用于单目和多目同步视频。
-
公开(公告)号:CN101271589A
公开(公告)日:2008-09-24
申请号:CN200710064660.6
申请日:2007-03-22
Applicant: 中国科学院计算技术研究所
Abstract: 本发明公开了一种三维人体模型关节中心提取方法,包括:输入三维人体模型的表面网格信息,根据这些信息提取三维人体模型的末端特征点;根据末端特征点,将三维人体模型的肢体进行划分,计算三维人体模型中各个肢体的近似方向;用一组垂直于肢体近似方向的平行平面截取三维人体模型,得到截面轮廓组;对截面轮廓组计算似圆性函数,得到一组似圆性函数序列,计算似圆性函数序列的局部极小值,根据局部极小值确定轮廓组中的畸形轮廓;计算畸形轮廓的轮廓重心,将所得到的轮廓重心作为三维人体模型相应位置的关节中心。本发明可以用于任意姿态的三维人体模型,关节中心提取的精确度较高。
-
公开(公告)号:CN100405404C
公开(公告)日:2008-07-23
申请号:CN200610089057.9
申请日:2006-08-01
Applicant: 中国科学院计算技术研究所
Abstract: 本发明公开了一种虚拟人实时绘制方法,包括:1)在预处理阶段,采用点采样技术,对虚拟人的初始网格模型进行预处理,生成由多边形和采样点混合表示的多分辨率模型;2)在实时绘制阶段,根据每个虚拟人个体在屏幕上的投影大小,对多分辨率模型进行遍历计算,生成由多边形和采样点混合组成的有效绘制图元;对有效绘制图元进行缓冲管理,在适当的时候提交图形设备进行绘制。本发明的优点:通过对预处理、多分辨率模型遍历等过程进行优化,增加绘制图元的缓冲管理,在相同硬件条件下提高系统可实时负载的虚拟人规模;有较好的通用性,可应用于游戏、影视制作、或其他需要模拟大规模虚拟人的虚拟现实应用系统中。
-
-
-
-
-
-
-
-
-