-
公开(公告)号:CN111091624A
公开(公告)日:2020-05-01
申请号:CN201911320035.2
申请日:2019-12-19
Applicant: 南京大学
Abstract: 本发明公开一种从单幅图片生成高精度可驱动人脸三维模型的方法。该方法包括:使用大规模三维人脸数据库建立参数化模型,包括用于表示粗略外形的双线性模型和用于表示细节外形的置换贴图;使用数据库中的图片和置换贴图训练神经网络;输入单幅人脸图片,得到人脸双线性模型参数,进而得到图片中人脸对应的一套表情基模型;将得到的人脸纹理贴图和顶点位移图输入训练好的神经网络,得到关键表情的置换贴图;根据输入的驱动参数,将关键表情的置换贴图按照掩模局部加权叠加得到驱动参数对应表情的置换贴图,由此可以得到高精度的任意表情的人脸三维模型。本方法得到的三维人脸模型具有很高的精度,包含了毛孔级别的细节和表情变化导致的动态皱纹。
-
公开(公告)号:CN110072121A
公开(公告)日:2019-07-30
申请号:CN201810065005.0
申请日:2018-01-23
Applicant: 南京大学
IPC: H04N21/2343 , H04N21/2662 , H04L29/06 , G06F3/01
Abstract: 本发明公开了一种适应人眼感知情况的沉浸式媒体数据传输方法。包括如下步骤:S1,在用户开始浏览前,将部分低质量的全景视频数据预存至用户端;S2,当用户开始平稳浏览时,服务器端根据用户当前的视觉行为传输高质量的视场区域内容,基于用户当前的视线落点分配当前视场下非均匀分布的图像质量;S3,当用户的视觉重点从当前区域迁移至下一个区域过程中,VR头盔视场中的数据由预存的低质量全景视频数据提供,同时继续预存低质量的全景视频数据至用户端;S4,当用户恢复到平稳浏览时和视线再次迁移时,重复步骤S2和S3,直至停止观察。本发明的方法能在有效减小VR数据流大小的同时保证整个视场区域内视频内容的主观感知质量不变。
-
公开(公告)号:CN115290076B
公开(公告)日:2025-05-06
申请号:CN202210690319.6
申请日:2022-06-17
Applicant: 南京大学
Abstract: 本发明提供了一种基于多传感器融合的人体关节角数据处理方法。该方法采用IMU惯性测量单元和RGB‑D深度相机作为传感器,通过获取来自不同传感器的数据信息,利用人体关节的自约束性计算各传感器所测量的人体关节角数据,再通过卡尔曼滤波算法融合IMU惯性测量单元和RGB‑D深度相机的测量信息得到最终关节角信息。本发明不仅解决了深度相机数据抖动较大以及惯性测量单元随时间增长漂移较大的问题,而且能提升自身动作的稳定性和解决部分自遮挡问题,在降低了整体系统成本的同时,提高了动作估计的准确性和整体系统的便携性。计算得到的关节角数据可以作为人机交互的输入指令,用于人体动作估计、虚拟人驱动和机器人控制。
-
公开(公告)号:CN118608906A
公开(公告)日:2024-09-06
申请号:CN202410567040.8
申请日:2024-05-09
Applicant: 南京大学
Abstract: 本发明提出了一种用于行人意图识别的多特征融合算法,包括以下步骤:步骤1、提取2个用于识别行人意图的时空特征;步骤2、基于视频帧,通过机器人学习模块提取视频帧的画面物理特征D;步骤3、对D、T*、T加权处理,根据加权结果获取行人意图。本发明基于3种特征融合的方式,理解和分析视频中的行人意图趋势,进而提高了预测的准确率。
-
公开(公告)号:CN115781666A
公开(公告)日:2023-03-14
申请号:CN202211374939.5
申请日:2022-11-04
Applicant: 南京大学
Abstract: 本发明公开了一种用于机器人全身模仿系统的控制方法。该方法包括如下步骤:步骤1,基于体感相机Kinect捕获的人体骨骼点坐标,将Kinect坐标系下人体各骨骼点坐标变换为在人体坐标系下的表示;步骤2,使用向量法求解人体关节角和各连杆向量;步骤3,建立机器人运动学模型,获得机器人的质心位置、各效应器末端的位置及其约束范围和机器人的连杆向量;步骤4,建立目标函数,迭代求解出最优解作为机器人的控制参数,最后将控制参数传递给机器人执行。本发明将机器人的模仿和平衡控制建模为最优化问题,通过实时迭代求解获得最优控制参数,从而兼顾平衡和模仿的相似性。
-
公开(公告)号:CN108492322B
公开(公告)日:2022-04-22
申请号:CN201810300362.0
申请日:2018-04-04
Applicant: 南京大学
Abstract: 本发明公开了一种基于深度学习预测用户视场的方法。步骤为:(1)将全景视频从球面映射到球内接立方体的6个面上,得到6个面对应的视频,分别生成视频的动态特征和显著度序列图,并进行分块和编号;(2)根据动态特征判断视频内容视点切换剧烈程度w;(3)用头盔记录用户的头部转向并对其进行处理;(4)通过w值的大小选择预测网络,用网络预测得到用户后n帧视频帧的视场,处理可得到与视场重合的视频块编号;(5)渲染和传输预测得到的视频块,重复步骤直到预测的为最后n帧。本发明的方法减小了全景图畸变对于输入的视频特征的影响,同时加入了视频信息的预判分级,能以较高的准确度预测用户在VR HMD中观看视频时的视场。
-
公开(公告)号:CN113524178A
公开(公告)日:2021-10-22
申请号:CN202110719798.5
申请日:2021-06-28
Applicant: 南京大学
Abstract: 本发明提供了一种面向人机融合系统的数据通信方法及其装置。该方法包括如下步骤:(1)获取操作者的骨骼点数据和机器人同时刻的关节角度数据;(2)对骨骼点数据进行数据表征与泛化,具体为:先对骨骼点数据进行解算,得到关节角度数据,然后对关节角度数据进行滤波,最后利用步骤(1)得到的机器人同时刻的关节角度数据,使用平衡控制算法进一步修正滤波后的关节角度数据,得到关节控制量;(3)将关节控制量输入给机器人的控制系统。本发明装置包括视觉端、队列结构、数据处理模块、栈结构和控制端。采用本发明的方法和装置对人机融合系统进行优化,可以使得系统性能显著提高,人机融合的稳定性和连续性明显得到改善。
-
公开(公告)号:CN119693285A
公开(公告)日:2025-03-25
申请号:CN202510215713.8
申请日:2025-02-26
Applicant: 南京大学
Abstract: 本发明提供了一种多光谱先验引导的手机影像色调映射方法,包括以下步骤:步骤1,在移动端搭载额外的多光谱传感器,获取场景在可见光波段的多光谱图像,同时获取移动端主摄拍摄的可见光RGB图像;步骤2,多光谱图像与RGB图像经过特征提取后,经特征嵌入输入到光谱感知自注意力模块中,获得通过光谱增强双边网格系数;步骤3,联合采用RGB图像与多光谱图像作为引导图,通过引导图在光谱增强双边网格系数中插值得到每一个像素点的色彩变换系数,从而得到最终的色调增强输出图。本发明充分利用额外的低空间分辨率的多光谱图像信息用于手机影像中的色调增强任务,从算法层面环节克服移动端由于物理空间限制造成的光谱成像性能有限。
-
公开(公告)号:CN113936317B
公开(公告)日:2025-02-07
申请号:CN202111202128.2
申请日:2021-10-15
Applicant: 南京大学
IPC: G06V40/16 , G06V10/778 , G06V10/764 , G06V10/74
Abstract: 本发明公开了一种基于先验知识的人脸表情识别方法。该方法具体步骤为:(1)对图像数据集进行预处理;(2)将预处理后的图像的先验分布转化为类别的平均分布,再将对应的独热标签作为索引从中提取先验知识,然后将先验知识转化为特定于每个数据集的后验概率,并将标签分布和后验概率加权求和得到混合分布;(3)将经预处理后的人脸表情图像输入至预训练好的学生模型网络中,进行特征提取;(4)将提取到的与表情高相关的特征通过全连接层输出预测分布,再经平滑处理后通过分类器最终得到分类结果。本发明利用了预先得到的先验知识,能在一定程度上解决人脸表情识别中常见的表情模糊性问题,得到更趋于现实的预测。
-
公开(公告)号:CN118735808A
公开(公告)日:2024-10-01
申请号:CN202410786181.9
申请日:2024-06-18
Applicant: 南京大学 , 南京智谱科技有限公司
IPC: G06T5/70 , G06N3/0464 , G06T5/30 , G06T5/60
Abstract: 本申请实施例提供了一种视频级频域降噪的方法、装置、设备及存储介质,所述方法包括:通过第一卷积网络提取第一视频的每帧图像的频域特征信息阵列,第一卷积网络的卷积核的每个元素为一个频域转换值与一个系数的乘积;通过若干个级联的第二卷积网络处理频域特征信息阵列,获得第一视频的每帧图像的降噪的第一频域特征;通过第三卷积网络根据第一频域特征获得第一视频的降噪后的图像,第三卷积网络的卷积核的每个元素为一个频域反转换值与一个系数的乘积。本申请实施例的技术方案基于深度学习网络架构对视频的每帧图像自适应提取频域特征、级联频域降噪和自适应从频域恢复至空域,实现高灵敏、高精度、大视野的降噪。
-
-
-
-
-
-
-
-
-