-
公开(公告)号:CN117474955A
公开(公告)日:2024-01-30
申请号:CN202311562005.9
申请日:2023-11-21
Applicant: 南京大学
IPC: G06T7/246 , G06V10/82 , G06N3/006 , G06T7/194 , G06N3/0464 , G06N3/08 , G06V10/764 , G06V10/26 , G06V10/80
Abstract: 本发明涉及群体秀丽隐杆线虫的视频追踪、轨迹修复优化技术领域,具体涉及一种用于分析大群体秀丽隐杆线虫的算法及软件;S1、构建线虫数据集,设计线虫追踪算法,S2、利用所述线虫数据集,训练目标检测和实例分割模块,S3、建立线虫个体的标准模型,并改进卡尔曼滤波算法,通过融合端点信息增加追踪的精确度,S4、通过一种场景约束的轨迹修复方法进行全局优化。本发明基于自主构建的线虫数据集,通过结合改进后的卡尔曼滤波算法与全局轨迹优化算法,有效解决了追踪过程中因轨迹破碎导出的ID冗余等追踪问题,能够在一定程度上减小线虫多目标追踪的误差,同时软件界面和交互功能可为有关线虫的医学工作者提供精确、便捷的定制化软件服务。
-
公开(公告)号:CN115661818A
公开(公告)日:2023-01-31
申请号:CN202211285162.5
申请日:2022-10-20
Applicant: 南京大学
Abstract: 本发明公开了一种基于高光谱的自动驾驶场景分割方法。该方法包括如下步骤:S1,同时采集RGB图像和高光谱图像,保证RGB图像和高光谱图像时间上同步且空间上配准;S2,分别处理RGB图像和高光谱图像,对RGB图像进行语义分割,对高光谱图像进行特征降维和材质估计;S3,以RGB图像的语义分割结果为基础,利用高光谱图像的材质估计结果优化RGB图像的语义分割结果,得到更准确和精细的场景分割结果。
-
公开(公告)号:CN115290076A
公开(公告)日:2022-11-04
申请号:CN202210690319.6
申请日:2022-06-17
Applicant: 南京大学
Abstract: 本发明提供了一种基于多传感器融合的人体关节角数据处理方法。该方法采用IMU惯性测量单元和RGB‑D深度相机作为传感器,通过获取来自不同传感器的数据信息,利用人体关节的自约束性计算各传感器所测量的人体关节角数据,再通过卡尔曼滤波算法融合IMU惯性测量单元和RGB‑D深度相机的测量信息得到最终关节角信息。本发明不仅解决了深度相机数据抖动较大以及惯性测量单元随时间增长漂移较大的问题,而且能提升自身动作的稳定性和解决部分自遮挡问题,在降低了整体系统成本的同时,提高了动作估计的准确性和整体系统的便携性。计算得到的关节角数据可以作为人机交互的输入指令,用于人体动作估计、虚拟人驱动和机器人控制。
-
公开(公告)号:CN113936317A
公开(公告)日:2022-01-14
申请号:CN202111202128.2
申请日:2021-10-15
Applicant: 南京大学
IPC: G06V40/16 , G06K9/62 , G06V10/778 , G06V10/764 , G06V10/74
Abstract: 本发明公开了一种基于先验知识的人脸表情识别方法。该方法具体步骤为:(1)对图像数据集进行预处理;(2)将预处理后的图像的先验分布转化为类别的平均分布,再将对应的独热标签作为索引从中提取先验知识,然后将先验知识转化为特定于每个数据集的后验概率,并将标签分布和后验概率加权求和得到混合分布;(3)将经预处理后的人脸表情图像输入至预训练好的学生模型网络中,进行特征提取;(4)将提取到的与表情高相关的特征通过全连接层输出预测分布,再经平滑处理后通过分类器最终得到分类结果。本发明利用了预先得到的先验知识,能在一定程度上解决人脸表情识别中常见的表情模糊性问题,得到更趋于现实的预测。
-
公开(公告)号:CN108492322A
公开(公告)日:2018-09-04
申请号:CN201810300362.0
申请日:2018-04-04
Applicant: 南京大学
Abstract: 本发明公开了一种基于深度学习预测用户视场的方法。步骤为:(1)将全景视频从球面映射到球内接立方体的6个面上,得到6个面对应的视频,分别生成视频的动态特征和显著度序列图,并进行分块和编号;(2)根据动态特征判断视频内容视点切换剧烈程度w;(3)用头盔记录用户的头部转向并对其进行处理;(4)通过w值的大小选择预测网络,用网络预测得到用户后n帧视频帧的视场,处理可得到与视场重合的视频块编号;(5)渲染和传输预测得到的视频块,重复步骤直到预测的为最后n帧。本发明的方法减小了全景图畸变对于输入的视频特征的影响,同时加入了视频信息的预判分级,能以较高的准确度预测用户在VR HMD中观看视频时的视场。
-
公开(公告)号:CN114677749B
公开(公告)日:2025-04-11
申请号:CN202210482805.9
申请日:2022-05-05
Applicant: 南京大学
IPC: G06V40/16 , G06V10/774 , G06V10/32 , G06V10/28 , G06N3/091 , G06N3/0499
Abstract: 本发明公开了一种基于限制搜索空间的人脸识别对抗样本生成方法。该方法具体步骤为:(1)对图像数据集进行预处理;(2)将预处理后的图像作为数据预训练生成器模型;(3)将预处理后的图像输入至生成器模型生成对抗样本,然后将生成的对抗样本和经预处理的图像送入判别器进行特征提取,将提取到的特征通过全连接层输出预测分数;(4)将生成的对抗样本和经预处理后的图像送入人脸识别模型进行特征提取,然后通过比较提取到的特征余弦相似度作为目标函数,再通过反向传播的方法优化目标函数。本发明利用了限制搜索空间的手段,能在一定程度上解决人脸识别对抗样本生成中常见的泛化性不足问题,得到更有效的对抗样本。
-
公开(公告)号:CN117314970A
公开(公告)日:2023-12-29
申请号:CN202311395511.3
申请日:2023-10-25
Applicant: 南京大学
IPC: G06T7/246 , G06V10/82 , G06N3/006 , G06T7/194 , G06N3/0464 , G06N3/08 , G06V10/764 , G06V10/26 , G06V10/80
Abstract: 本发明涉及群体秀丽隐杆线虫的视频追踪、轨迹修复优化技术领域,具体涉及一种用于分析大群体秀丽隐杆线虫的算法及软件;S1、构建线虫数据集,设计线虫追踪算法,S2、利用所述线虫数据集,训练目标检测和实例分割模块,S3、建立线虫个体的标准模型,并改进卡尔曼滤波算法,通过融合端点信息增加追踪的精确度,S4、通过一种场景约束的轨迹修复方法进行全局优化。本发明基于自主构建的线虫数据集,通过结合改进后的卡尔曼滤波算法与全局轨迹优化算法,有效解决了追踪过程中因轨迹破碎导出的ID冗余等追踪问题,能够在一定程度上减小线虫多目标追踪的误差,同时软件界面和交互功能可为有关线虫的医学工作者提供精确、便捷的定制化软件服务。
-
公开(公告)号:CN116012956A
公开(公告)日:2023-04-25
申请号:CN202310015645.1
申请日:2023-01-06
Applicant: 南京大学
IPC: G06V40/40 , G06V40/16 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/0475 , G06N3/094 , G06N3/09
Abstract: 本发明公开了一种基于生成模型的人脸防伪方法。其具体步骤包括:步骤1,对人脸防伪数据集进行预处理,数据集中包括对应的“0,1”标签,其中,0代表攻击图像,1代表真实图像;步骤2,搭建生成式对抗网络,该网络包括生成网络和鉴别网络,将预处理好的人脸图像输入生成网络和鉴别网络,进行训练;训练时,引入最大均值差异约束;步骤3,将一张未知是否带有攻击的人脸图像输入已经训练好的生成网络,生成网络再输入一张对应的预测真实人脸,通过计算输入人脸图像与预测真实人脸之间的差异,如果差异低于阈值,则表示输入人脸图像是真实的,如果差异超过阈值,则被判断为伪装人脸。由于本方法不用提取特征,所以泛化性和准确性更高。
-
公开(公告)号:CN111091624B
公开(公告)日:2021-09-28
申请号:CN201911320035.2
申请日:2019-12-19
Applicant: 南京大学
Abstract: 本发明公开一种从单幅图片生成高精度可驱动人脸三维模型的方法。该方法包括:使用大规模三维人脸数据库建立参数化模型,包括用于表示粗略外形的双线性模型和用于表示细节外形的置换贴图;使用数据库中的图片和置换贴图训练神经网络;输入单幅人脸图片,得到人脸双线性模型参数,进而得到图片中人脸对应的一套表情基模型;将得到的人脸纹理贴图和顶点位移图输入训练好的神经网络,得到关键表情的置换贴图;根据输入的驱动参数,将关键表情的置换贴图按照掩模局部加权叠加得到驱动参数对应表情的置换贴图,由此可以得到高精度的任意表情的人脸三维模型。本方法得到的三维人脸模型具有很高的精度,包含了毛孔级别的细节和表情变化导致的动态皱纹。
-
-
-
-
-
-
-
-