-
公开(公告)号:CN116503543A
公开(公告)日:2023-07-28
申请号:CN202210059024.9
申请日:2022-01-19
Applicant: 上海交通大学
Abstract: 一种基于三点传感信号的人体全身动作实时重建方法及系统,根据采集的头部和双手三点传感器信号,通过腰部关节和根关节预估算法生成预估的腰部关节和根关节;将其与人体骨架模型结合,通过反向运动算法生成上半身重建结果;另外通过基于BiGRU的下半身重建网络,对输入动作特征序列生成下半身重建结果,并使用基于双阈值的动作后处理技术进一步稳定下半身动作,最终合并重建得到全身动作。本发明仅使用头部和双手三个身体部位的传感信号预估腰部关节和根关节,增加已知关节的数量,更加有效地重建上半身动作和下半身动作的同时,使下半身动作重建效果能得到明显改善。
-
公开(公告)号:CN113012177A
公开(公告)日:2021-06-22
申请号:CN202110362349.X
申请日:2021-04-02
Applicant: 上海交通大学
Abstract: 本发明涉及一种基于几何特征提取和边缘感知编码的三维点云分割方法,该方法包括如下步骤:构建并训练边缘预测网络以及分割网络;边缘预测网络输入为三维点云中各个点所在邻域内的原始特征方差,输出为三维点云中各个点是否为边缘点;分割网络采用编码器解码器的结构,每一层执行以下操作:几何特征提取;几何特征与已有输入特征进行拼接;对拼接特征进行边缘感知特征提取作为下一层的输入特征;将对应分辨率下编码器的特征与解码器的特征融合得到原始分辨率的特征,使用激活函数对原始分辨率的特征进行归一化,得到每个点属于不同类别的概率。与现有技术相比,本发明提升了网络的几何特征感知能力,从而提高了点云特别是点云边缘部分的分割效果。
-
公开(公告)号:CN112700521A
公开(公告)日:2021-04-23
申请号:CN202110101178.5
申请日:2021-01-26
Applicant: 上海交通大学
Abstract: 一种音乐驱动的人体骨骼舞蹈动作生成系统,包括:依次相连的音乐特征提取系统、基于GAN的舞蹈动作生成系统和舞蹈动作评价系统,其中:音乐特征提取系统接收音乐信息,提取音乐旋律特征,传输给舞蹈动作生成系统,舞蹈动作生成系统根据音乐数据,进行舞蹈动作生成,并对其真实性进行判别,舞蹈动作评价指标接收舞蹈动作生成系统的舞蹈动作,分别从舞蹈真实性、多样性和复杂性三个方面来评价其优劣性。本发明通过引入人类编舞的先验知识,以普通音乐文件为输入,依托于基于GAN的舞蹈动作生成模型的创造新数据的能力,可以生成连贯通畅的、符合输入音乐特征的人体骨骼舞蹈动作。
-
公开(公告)号:CN101489146A
公开(公告)日:2009-07-22
申请号:CN200910045011.0
申请日:2009-01-08
Applicant: 上海交通大学
Abstract: 一种计算机投影的信息嵌入技术领域的自适应的不可见结构光技术实现方法,步骤一,调整原始图像亮度空间范围;步骤二,在步骤一所生成的伪原始图像中像素级自适应嵌入不可见结构光;步骤三,用摄像头捕捉相互补偿的图像,对该图像利用C2P对应映射方法进行像素级自适应解析不可见结构光;步骤四,用中值过滤器处理解析出来的结构光图像,去除多余的噪点。本发明获得的亮度效果更接近原图案,所以让人眼更加难以察觉,同时,本发明分别克服了图像依赖和精度不足两大难题。
-
公开(公告)号:CN119515668A
公开(公告)日:2025-02-25
申请号:CN202311050006.5
申请日:2023-08-21
Applicant: 上海交通大学
IPC: G06T3/04 , G09B11/10 , G09B5/02 , G06T7/90 , G06N3/0464
Abstract: 本发明提供一种绘画大师风格学习和风格迁移的人机交互系统,以平板电脑绘画为基础,包括:模式选择模块,所述模式选择模块选择临摹、写生或自由创造的绘画模式;教学指导模块,所述教学指导模块在临摹模式的绘画过程中进行交互式指导;风格迁移模块,所述风格迁移模块将在临摹模式和写生模式下完成的绘画进行风格迁移并对照展示,使得用户所画的零散线条或色块整体风格统一,美化用户的画作。本发明在绘画过程中,加入交互式的检测和修正,增加绘画乐趣,提高绘画教学质量。
-
公开(公告)号:CN112614212B
公开(公告)日:2022-05-17
申请号:CN202011484986.6
申请日:2020-12-16
Applicant: 上海交通大学
Abstract: 一种联合语气词特征的视音频驱动人脸动画方法及系统,通过提取语音特征构建出语音特征矩阵,利用语气词增强训练网络的多层卷积操作对特征矩阵进行采样并映射到低维空间的中间变量;对输入的语音转换成文字,从文字内容中识别出语气词并构建one‑hot向量,与中间变量拼接后得到包含语气词特征的中间变量;再通过语气词增强训练网络进行卷积后映射为当前帧的表情AU参数,用于与视频追踪、语音预测算法生成的AU参数拟合后作为人脸模型的驱动参数,实现表情增强。本发明通过输入用户面部的视频内容和用户发声的音频内容,就可以联合驱动虚拟场景中的三维Avatar模型,在实时驱动的基础上,使整体和局部的面部动画都得到较为逼真和生动的表现效果。
-
公开(公告)号:CN112614212A
公开(公告)日:2021-04-06
申请号:CN202011484986.6
申请日:2020-12-16
Applicant: 上海交通大学
Abstract: 一种联合语气词特征的视音频驱动人脸动画方法及系统,通过提取语音特征构建出语音特征矩阵,利用语气词增强训练网络的多层卷积操作对特征矩阵进行采样并映射到低维空间的中间变量;对输入的语音转换成文字,从文字内容中识别出语气词并构建one‑hot向量,与中间变量拼接后得到包含语气词特征的中间变量;再通过语气词增强训练网络进行卷积后映射为当前帧的表情AU参数,用于与视频追踪、语音预测算法生成的AU参数拟合后作为人脸模型的驱动参数,实现表情增强。本发明通过输入用户面部的视频内容和用户发声的音频内容,就可以联合驱动虚拟场景中的三维Avatar模型,在实时驱动的基础上,使整体和局部的面部动画都得到较为逼真和生动的表现效果。
-
公开(公告)号:CN111325124A
公开(公告)日:2020-06-23
申请号:CN202010087681.5
申请日:2020-02-05
Applicant: 上海交通大学
IPC: G06K9/00
Abstract: 一种虚拟场景下的实时人机交互系统,包括:用于突变检测的视觉注意区域预测模块和基于视觉注意区域特征的行为预测模块,其中:视觉注意区域预测模块接受输入视频帧序列并依次进行目标信息检测、平滑运动检测以及突变信息检测并得到视觉显著图,对视觉显著图进行视觉注意区域提取得到注意区域图;行为预测模块对用户视觉区域与视频内容进行特征后利用特征对用户行为进行预测。本发明通过输入用户观测到的视频内容,预测用户观测到视频后的反馈行为,能够在场景中存在突变的情况下能够较好地运行同时也能够应对平滑变化的场景。
-
公开(公告)号:CN101476882B
公开(公告)日:2010-07-28
申请号:CN200910045010.6
申请日:2009-01-08
Applicant: 上海交通大学
IPC: G01B11/25
Abstract: 一种计算机视觉技术领域的基于单应性矩阵的结构光三维检测方法,本发明中,利用棋盘格图案中的特征点获取相机成像面分别与平面P1和P2对应的单应性矩阵,同时在平面P1和P2上分别测定投影仪投影面和相机成像面对应的单应性矩阵,给定投影面上某条光栅的直线方程,根据单应性矩阵获得成像面和世界坐标系下的平面,并建立成像面和世界坐标系下平面之间的关系,并通过变换关系得到每条光栅在世界坐标系下的位置,从而获取三维信息。本发明可以简便的测量世界坐标,并避免了设备相关性问题,本发明在保证精度的条件下简化了三维检测的操作。
-
公开(公告)号:CN116616918A
公开(公告)日:2023-08-22
申请号:CN202210123791.1
申请日:2022-02-10
Applicant: 上海交通大学 , 复旦大学附属华山医院
Abstract: 本发明提供一种手术外视镜的自动跟踪控制系统,包括:跟踪模块,所述跟踪模块对手术目标区域任意角度进行实时视频拍摄、跟踪和显示;控制模块,所述控制模块控制所述跟踪模块的移动、旋转和拍摄视角;人机交互模块,所述人机交互模块获取控制指令,所述控制模块依据所述控制指令调整所述跟踪模块。本发明通过自动控制和视频图像跟踪极大地减少了手术过程中的手工操作,提供了更方便、灵活的自动操作,并更有效地利用了手术外视镜的活动空间,提升了手术外视镜的实用效能;其实现了手术外视镜系统按照用户意图的自动平滑控制,保证摄像机大范围多角度拍摄手术区域,并在摄像机运动过程中通过同步微调,将手术区域始终保持在视频中心区域。
-
-
-
-
-
-
-
-
-