-
公开(公告)号:CN112766422A
公开(公告)日:2021-05-07
申请号:CN202110275875.2
申请日:2021-03-15
Applicant: 山东大学
Abstract: 为了解决实际应用中人脸识别技术在训练阶段数据容易被泄漏的问题,本发明提出了一种基于轻量级人脸识别模型的隐私保护方法,该方法主要思想首先是在通用的人脸识别模型中加入了轻量级的网络模块,减小了模型的参数量,增加了推理阶段的速度。其次,为了解决网络模型参数容易被攻击的问题,方法设计使用投票机制和噪声来增加概率性以保护网络参数。最后,本发明创新性的提出了一种基于人脸识别网络的“教师‑学生”融合架构来隔离敏感与非敏感数据。该方法可以保证识别率没有降低的情况下,加速网络运行速度,减少训练参数量,保证训练阶段和推理阶段的安全性,在速度和准确率的参考指标上充分证明了该方法具有实用性的价值。
-
公开(公告)号:CN112766422B
公开(公告)日:2022-11-15
申请号:CN202110275875.2
申请日:2021-03-15
Applicant: 山东大学
IPC: G06V40/16 , G06V10/774 , G06N3/04 , G06F21/62
Abstract: 为了解决实际应用中人脸识别技术在训练阶段数据容易被泄漏的问题,本发明提出了一种基于轻量级人脸识别模型的隐私保护方法,该方法主要思想首先是在通用的人脸识别模型中加入了轻量级的网络模块,减小了模型的参数量,增加了推理阶段的速度。其次,为了解决网络模型参数容易被攻击的问题,方法设计使用投票机制和噪声来增加概率性以保护网络参数。最后,本发明创新性的提出了一种基于人脸识别网络的“教师‑学生”融合架构来隔离敏感与非敏感数据。该方法可以保证识别率没有降低的情况下,加速网络运行速度,减少训练参数量,保证训练阶段和推理阶段的安全性,在速度和准确率的参考指标上充分证明了该方法具有实用性的价值。
-
公开(公告)号:CN111914119B
公开(公告)日:2022-03-18
申请号:CN202010815306.8
申请日:2020-08-12
Applicant: 山东大学
IPC: G06F16/738 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于动静态特征融合的视频摘要方法,用于视频内容理解与处理,将原始视频中的重要部分提取出来作为视频摘要,使得摘要后的视频包含对人们最有效信息的同时缩短视频总长度,以利于节省人们获取有效信息的时间。为了获得层次信息更丰富的视觉特征,该方法首先对视频片段和对应视频图像提取动态和静态特征,然后将动静态特征进行融合,最后将融合特征送入视频片段重要性分数预测网络,根据分数高低选取部分视频片段按时间顺序连接为最终视频摘要。使用SumMe和TVSum两个数据集完成了实验,并进行了5次交叉验证。与未使用特征融合的深度学习模型相比较后,本发明提出的视频摘要方法结果准确率得到提升,表明了本发明所提出的动静态特征融合的有效性。
-
公开(公告)号:CN111914119A
公开(公告)日:2020-11-10
申请号:CN202010815306.8
申请日:2020-08-12
Applicant: 山东大学
IPC: G06F16/738 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于动静态特征融合的视频摘要方法,用于视频内容理解与处理,将原始视频中的重要部分提取出来作为视频摘要,使得摘要后的视频包含对人们最有效信息的同时缩短视频总长度,以利于节省人们获取有效信息的时间。为了获得层次信息更丰富的视觉特征,该方法首先对视频片段和对应视频图像提取动态和静态特征,然后将动静态特征进行融合,最后将融合特征送入视频片段重要性分数预测网络,根据分数高低选取部分视频片段按时间顺序连接为最终视频摘要。使用SumMe和TVSum两个数据集完成了实验,并进行了5次交叉验证。与未使用特征融合的深度学习模型相比较后,本发明提出的视频摘要方法结果准确率得到提升,表明了本发明所提出的动静态特征融合的有效性。
-
公开(公告)号:CN111429340A
公开(公告)日:2020-07-17
申请号:CN202010217766.0
申请日:2020-03-25
Applicant: 山东大学
Abstract: 为了解决CycleGAN网络生成图像细节模糊不清且训练缓慢的问题,本发明提出了一种基于自注意力机制的循环图像翻译方法。主要思想在于在生成器网络中使用自注意力机制模块,扩大特征图的感受野,增强其对中心像素点周围空间结构的描述;此外,为了解决网络训练中收敛缓慢且不稳定的问题,在训练过程中使用了谱归一化方法和双尺度更新策略,对生成器和判别器分别使用不同的学习速率进行梯度更新;最终,本发明设计了一种基于最小二乘的对抗损失和循环一致性损失结合的目标函数,实现更真实的图像翻译。该方法可以实现更精准的图像特征转换,其在图像翻译任务中进行实验,达到了优异的效果,充分证明方法具有较强的转换能力。
-
公开(公告)号:CN113011308A
公开(公告)日:2021-06-22
申请号:CN202110276432.5
申请日:2021-03-15
Applicant: 山东大学
Abstract: 本发明提出一种引入注意力机制的行人检测方法。针对行人检测因存在行人相互遮挡、尺寸大小不一会导致大量的漏检的现象。本发明提出的方法基于YOLOv3目标检测网络,并加入针对卷积核的注意力机制SKNet网络结构,通过注意力机制模块改变特征图中原始通道的卷积核权重,使得被遮挡通道权重降低,未被遮挡通道权重提高;此外通过注意力机制模块改变特征图中原始通道的卷积核权重,使得不同的图像能够得到具有不同重要性的卷积核,提高多尺度预测效果,优化小行人检测效果。本发明设计的方法在复杂的行人检测应用场景中进行了实验,减小了漏检率,达到了优异的效果,充分证明方法具有较强的泛化能力。
-
-
-
-
-