-
公开(公告)号:CN114862697A
公开(公告)日:2022-08-05
申请号:CN202210370638.9
申请日:2022-04-10
Applicant: 复旦大学
IPC: G06T5/00 , G06T15/00 , G06V40/16 , G06V10/774
Abstract: 本发明属于数字图像处理技术领域,具体为一种基于三维分解的人脸盲修复方法。本发明包括:使用人脸三维重建模型将人脸图像分解为纹理层、骨骼结构层和环境及位姿参数三部分;对骨骼结构层使用编码器‑解码器对其进行粗粒度填充,对纹理层先使用不同参数编码器‑解码器对其进行细粒度填充,再使用人脸增强模块对人脸细节增强;用三维重建网络中的渲染器将修复的两个成分与其他参数结合渲染得到修复重建后的三维人脸图像;将修复得到的三维人脸图像和被遮挡的输入图共同输入人脸精修模块,得到被修复的人脸图像。实验结果表明,当图像的遮挡范围没有被手动标注时,本发明能够准确地对人脸进行修复,同时保持未被遮挡部分和输入图像保持一致。
-
公开(公告)号:CN114743069A
公开(公告)日:2022-07-12
申请号:CN202210427447.1
申请日:2022-04-21
Applicant: 复旦大学
IPC: G06V10/774 , G06K9/62 , G06V10/82 , G06N3/04
Abstract: 本发明属于视频与场景理解技术领域,具体为一种对两帧图像进行密集匹配计算的方法。本发明方法包括采用一种新的置信度驱动的自适应匹配网络模型,从不置信的点中挖掘匹配信息。通过迭代评估置信度和匹配不置信点来实现自适应匹配。其中,采用三种策略来评估置信度,每一种都伴随有不同的置信度表示、不置信点选择和损失函数。这些策略自适应地从流预测结果中提出了不确定的点。本发明还将密集匹配与特征匹配方法相结合,以匹配不确定的点,并为流预测结果提供指导。本发明方法促进了不置信区域的成对点的匹配。最终的模型以较低的时间和参数成本实现了最先进的性能。
-
公开(公告)号:CN114708586B
公开(公告)日:2025-05-09
申请号:CN202210427450.3
申请日:2022-04-21
Applicant: 复旦大学
IPC: G06V40/16 , G06V10/82 , G06N3/088 , G06N3/0455 , G06N3/0464 , G06N3/0475
Abstract: 本发明属于图像与视频理解技术领域,具体为一种从图像和视频中提取三维人脸表征的方法。本发明通过构建一个三维无监督人脸表征学习网络模型来提取三维人脸表征;本发明从没有标签的自然人脸图像和视频中学习,使用表情变换模块从视频序列学习人脸表情的变化。本发明考虑到内部因素和外部环境,利用人脸的三维性质来解耦多达5个影响因素,包括人脸的材质、形状、表情、姿势和光照。本发明可以用于各种下游任务,如人脸表情识别、姿势估计、人脸验证和人脸正面化。
-
公开(公告)号:CN114743069B
公开(公告)日:2025-05-06
申请号:CN202210427447.1
申请日:2022-04-21
Applicant: 复旦大学
IPC: G06V10/774 , G06V10/82 , G06N3/04 , G06N3/045 , G06N3/0464 , G06N3/084 , G06N3/0985
Abstract: 本发明属于视频与场景理解技术领域,具体为一种对两帧图像进行密集匹配计算的方法。本发明方法包括采用一种新的置信度驱动的自适应匹配网络模型,从不置信的点中挖掘匹配信息。通过迭代评估置信度和匹配不置信点来实现自适应匹配。其中,采用三种策略来评估置信度,每一种都伴随有不同的置信度表示、不置信点选择和损失函数。这些策略自适应地从流预测结果中提出了不确定的点。本发明还将密集匹配与特征匹配方法相结合,以匹配不确定的点,并为流预测结果提供指导。本发明方法促进了不置信区域的成对点的匹配。最终的模型以较低的时间和参数成本实现了最先进的性能。
-
公开(公告)号:CN114862697B
公开(公告)日:2025-03-25
申请号:CN202210370638.9
申请日:2022-04-10
Applicant: 复旦大学
IPC: G06T5/77 , G06T15/00 , G06V40/16 , G06V10/774
Abstract: 本发明属于数字图像处理技术领域,具体为一种基于三维分解的人脸盲修复方法。本发明包括:使用人脸三维重建模型将人脸图像分解为纹理层、骨骼结构层和环境及位姿参数三部分;对骨骼结构层使用编码器‑解码器对其进行粗粒度填充,对纹理层先使用不同参数编码器‑解码器对其进行细粒度填充,再使用人脸增强模块对人脸细节增强;用三维重建网络中的渲染器将修复的两个成分与其他参数结合渲染得到修复重建后的三维人脸图像;将修复得到的三维人脸图像和被遮挡的输入图共同输入人脸精修模块,得到被修复的人脸图像。实验结果表明,当图像的遮挡范围没有被手动标注时,本发明能够准确地对人脸进行修复,同时保持未被遮挡部分和输入图像保持一致。
-
公开(公告)号:CN114708586A
公开(公告)日:2022-07-05
申请号:CN202210427450.3
申请日:2022-04-21
Applicant: 复旦大学
Abstract: 本发明属于图像与视频理解技术领域,具体为一种从图像和视频中提取三维人脸表征的方法。本发明通过构建一个三维无监督人脸表征学习网络模型来提取三维人脸表征;本发明从没有标签的自然人脸图像和视频中学习,使用表情变换模块从视频序列学习人脸表情的变化。本发明考虑到内部因素和外部环境,利用人脸的三维性质来解耦多达5个影响因素,包括人脸的材质、形状、表情、姿势和光照。本发明可以用于各种下游任务,如人脸表情识别、姿势估计、人脸验证和人脸正面化。
-
公开(公告)号:CN114821714B
公开(公告)日:2025-03-21
申请号:CN202210370651.4
申请日:2022-04-10
Applicant: 复旦大学
IPC: G06V40/16 , G06V10/80 , G06V10/44 , G06N3/0464
Abstract: 本发明属于数字图像处理技术领域,具体为一种基于协同特征补全的有遮挡场景下的人脸表情识别方法。本发明联合遮挡物抠除与特征补全来应对遮挡给表情识别带来的影响,具体步骤包括:使用遮挡物抠除模块检测并抠除人脸遮挡图像中的遮挡物;根据成对的无遮挡图像生成类别激活图以确定表情识别时具有判别性的区域;结合类别激活图与遮挡物位置掩码生成最终需要进行特征补全区域的掩码,在对应无遮挡图像中间特征图的指导下进行特征补全。实验结果表明,本发明能检测出破坏人脸完整性的遮挡物并识别该图像对应的表情类别。
-
公开(公告)号:CN118646837A
公开(公告)日:2024-09-13
申请号:CN202410613624.4
申请日:2024-05-17
Applicant: 复旦大学
IPC: H04N7/01 , H04N21/4402 , H04N21/44 , G02B21/36 , G06N3/045 , G06N3/0464 , G06N3/084 , G06N3/0895
Abstract: 本发明属于视频处理技术领域,具体为一种基于自监督学习的显微镜视频插帧方法。本发明方法包括:首先,采用自监督训练策略训练深度学习模型,从有噪声的显微镜视频中学习视频插帧;其次,引入基于选择性状态空间模型的时空特征对齐模块,高效进行视频插帧;最后,模拟数据集评估显微镜视频插帧任务,该数据集包含不同对象和噪声水平。实验结果表明,本模型在视频插帧性能上具有显著的优势,而且处理内存消耗只有之前的四分之一,具有很高实用价值。
-
公开(公告)号:CN114821714A
公开(公告)日:2022-07-29
申请号:CN202210370651.4
申请日:2022-04-10
Applicant: 复旦大学
Abstract: 本发明属于数字图像处理技术领域,具体为一种基于协同特征补全的有遮挡场景下的人脸表情识别方法。本发明联合遮挡物抠除与特征补全来应对遮挡给表情识别带来的影响,具体步骤包括:使用遮挡物抠除模块检测并抠除人脸遮挡图像中的遮挡物;根据成对的无遮挡图像生成类别激活图以确定表情识别时具有判别性的区域;结合类别激活图与遮挡物位置掩码生成最终需要进行特征补全区域的掩码,在对应无遮挡图像中间特征图的指导下进行特征补全。实验结果表明,本发明能检测出破坏人脸完整性的遮挡物并识别该图像对应的表情类别。
-
-
-
-
-
-
-
-