-
公开(公告)号:CN113011357B
公开(公告)日:2023-04-25
申请号:CN202110325432.X
申请日:2021-03-26
Applicant: 西安电子科技大学
IPC: G06V40/16 , G06V10/80 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0442 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于时空融合的深度伪造人脸视频定位方法,其步骤为:(1)构建卷积神经网络;(2)构建融合时域和空间域特征的分类网络;(3)构建分割定位任务网络;(4)构建重建任务网络;(5)构建多任务融合网络;(6)生成多任务融合损失函数;(7)生成训练集;(8)训练多任务融合网络;(9)对深度伪造人脸视频进行识别定位。本发明构建融合时域和空间域特征的分类网络提取特征,可以提取到更完整的帧内和帧间特征,获得更高的准确率,同时,本发明构建用于训练多任务融合网络的多任务融合损失函数,解决了未见攻击类别和任务单一化导致的影响泛化能力和功能完善性的问题。
-
公开(公告)号:CN113011357A
公开(公告)日:2021-06-22
申请号:CN202110325432.X
申请日:2021-03-26
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于时空融合的深度伪造人脸视频定位方法,其步骤为:(1)构建卷积神经网络;(2)构建融合时域和空间域特征的分类网络;(3)构建分割定位任务网络;(4)构建重建任务网络;(5)构建多任务融合网络;(6)生成多任务融合损失函数;(7)生成训练集;(8)训练多任务融合网络;(9)对深度伪造人脸视频进行识别定位。本发明构建融合时域和空间域特征的分类网络提取特征,可以提取到更完整的帧内和帧间特征,获得更高的准确率,同时,本发明构建用于训练多任务融合网络的多任务融合损失函数,解决了未见攻击类别和任务单一化导致的影响泛化能力和功能完善性的问题。
-