-
公开(公告)号:CN110188271A
公开(公告)日:2019-08-30
申请号:CN201910444257.9
申请日:2019-05-27
Applicant: 南京信息工程大学
IPC: G06F16/9535 , G06F17/27 , G06F21/60 , G06F21/62
Abstract: 本发明公开了一种搜索方法以及装置,所述方法包括:提供关键词,基于所述关键词扩展至与所述关键词相关联的多个子关键词;关键词集合包括所述关键词与所述多个子关键词;查询所述关键词集合中是否存在与标准关键词匹配的词汇;所述标准关键词与目标信息相对应;若所述关键词集合中存在与所述标准关键词匹配的词汇,输出所述目标信息。采用上述方案,可以实现搜索结果的全面性。
-
公开(公告)号:CN103593590A
公开(公告)日:2014-02-19
申请号:CN201310573125.9
申请日:2013-11-18
Applicant: 南京信息工程大学
CPC classification number: G06F21/16 , G06F2221/0733 , G06T1/0071
Abstract: 本发明提供了基于云环境的混合加性多次水印嵌入方法,由密钥来控制两种不同的加性规则的交叉使用,实现数字水印的多次嵌入,由于嵌入规则受算法控制密钥控制,因此较传统的加性水印系统的安全性更高,鲁棒性好。本发明还提供了同一种本发明解码算法对应用两种不同加性嵌入规则而嵌入的数字水印进行解码。由于使用了两类密钥,算法控制密钥,水印信息加密密钥以及多次的水印嵌入,因此本发明可以实现在云环境中多人对系统的控制。
-
公开(公告)号:CN119169038B
公开(公告)日:2025-05-13
申请号:CN202411668920.0
申请日:2024-11-21
Applicant: 南京信息工程大学
Abstract: 本发明公开一种基于扩散模型的生成式边缘痕迹消减方法,通过伪造区域掩膜的灰度图像获取边缘像素位置,并通过目标边缘获取和分层模块对边缘上每一个像素点设置可以调节的距离参数,边缘生成模块的不同采样范围边缘层将会引导扩散模型生成新的伪造边缘,多轮生成得到的多组伪造边缘将送入边缘图像融合模块,每一轮生成的合适边缘像素点替换原输入图像对应位置像素,边缘图像融合模块根据决策图将本轮新生成边缘像素和合适边缘像素进行图像融合,边缘检测模块将损失图像、边缘像素点值和位置返回给目标边缘获取和分层模块以及边缘图像融合模块。本发明具有良好鲁棒性。
-
公开(公告)号:CN119168839B
公开(公告)日:2025-04-18
申请号:CN202411659465.8
申请日:2024-11-20
Applicant: 南京信息工程大学
IPC: G06T1/00 , G06V10/764 , G06V10/82 , G06V10/80 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开一种基于双分支网络的高质量因子JPEG图像隐写分析方法,对于待分析JPEG图像,先从频率域转换到空间域得到未进行舍入和截断的非舍入像素值块,然后将非舍入像素值块进行舍入和截断操作,再将舍入误差和截断误差归一化并相加转换为误差图像;将JPEG图像和误差图像输入训练好的双分支网络,分支网络包括并行的Transformer网络模块和CNN网络模块,同时提取频域特征空域特征;将频域特征和空域特征通过融合模块进行融合,所得融合特征进入分类器,判断是否被隐写。本发明能够对高质量因子压缩下的JPEG图像进行隐写分析。
-
公开(公告)号:CN119052506B
公开(公告)日:2025-02-28
申请号:CN202411550271.4
申请日:2024-11-01
Applicant: 南京信息工程大学
IPC: H04N19/467 , H04N19/44 , H04N19/136 , H04N19/21 , H04N19/33 , H04N19/34 , H04N1/44 , G06N3/0475 , G06N3/0895 , G06N3/094
Abstract: 本发明公开一种基于扩展隐空间和对比学习的生成式隐写方法,属于信息安全领域,利用扩展隐空间和对比学习实现秘密信息的隐藏和提取,通过特征金字塔编码器将真实参考图像转换到#imgabs0#隐空间中,以扩展图片载体的隐写容量,采用主成分分析PCA在不同层级的隐向量中寻找结构属性的分布区间,以确定信息嵌入的最佳区域;最后利用预训练的StyleGAN2生成器进行载密图像的生成,同时,引入CLIP的变体对比学习机制,将图像与隐向量对齐训练后冻结为损失模块,以提高信息提取的准确率。本发明适用于大数据时代中日益突出的多媒体通信和用户隐私安全问题,实现秘密信息的隐藏和提取。
-
公开(公告)号:CN117934891B
公开(公告)日:2024-06-07
申请号:CN202410343857.7
申请日:2024-03-25
Applicant: 南京信息工程大学
IPC: G06V10/762 , G06V10/40 , G06V10/82 , G06N3/0464 , G06N3/084 , G06N3/042
Abstract: 本发明提供一种基于图结构的图像对比聚类方法及系统,涉及机器学习和图像处理领域。该方法包含以下步骤,获取原始图像数据集,对原始图像数据集进行两种不同的变换,分获取变换后的数据集的特征和对比特征,计算实例级对比损失,获取并更新每个样本的邻居,获取邻接矩阵并加上不同的随机掩码,构建图结构数据,输入到图神经网络聚合特征与其邻居特征,并获得聚类分配,计算簇级对比损失,通过实例级对比损失和簇级对比损失优化特征提取网络、对比网络和图卷积神经网络,重复上述步骤,直到满足迭代次数,输出聚类分组结果;本发明方法不仅能获取图像的语义信息,也能有效挖掘图像数据之间的结构信息。
-
公开(公告)号:CN118135640A
公开(公告)日:2024-06-04
申请号:CN202410547705.9
申请日:2024-05-06
Applicant: 南京信息工程大学
Abstract: 本发明公开一种基于隐性噪声的对抗人脸图像攻击防御方法,将人脸图像#imgabs0#进行强化生成强化人脸图像#imgabs1#;当检测到遭受对抗攻击时,采用优化截断梯度下降方向的方法来求解#imgabs2#,将所得#imgabs3#与遭遇对抗攻击后的#imgabs4#分别输入人脸识别模型#imgabs5#与人脸图像库中对应身份的人脸进行匹配。针对黑盒攻击,本发明均有对应防御方法,提高防御人脸攻击的成功性,规避影响防御性能的近似误差,提升了人脸在未知攻击下的可迁移性。本发明能够有效防御已知和未知的人脸对抗攻击。
-
公开(公告)号:CN117934891A
公开(公告)日:2024-04-26
申请号:CN202410343857.7
申请日:2024-03-25
Applicant: 南京信息工程大学
IPC: G06V10/762 , G06V10/40 , G06V10/82 , G06N3/0464 , G06N3/084 , G06N3/042
Abstract: 本发明提供一种基于图结构的图像对比聚类方法及系统,涉及机器学习和图像处理领域。该方法包含以下步骤,获取原始图像数据集,对原始图像数据集进行两种不同的变换,分获取变换后的数据集的特征和对比特征,计算实例级对比损失,获取并更新每个样本的邻居,获取邻接矩阵并加上不同的随机掩码,构建图结构数据,输入到图神经网络聚合特征与其邻居特征,并获得聚类分配,计算簇级对比损失,通过实例级对比损失和簇级对比损失优化特征提取网络、对比网络和图卷积神经网络,重复上述步骤,直到满足迭代次数,输出聚类分组结果;本发明方法不仅能获取图像的语义信息,也能有效挖掘图像数据之间的结构信息。
-
公开(公告)号:CN117409064A
公开(公告)日:2024-01-16
申请号:CN202311391096.4
申请日:2023-10-25
Applicant: 南京信息工程大学
Abstract: 本发明公开了基于双分支网络估计非对齐重压缩图像偏移量方法及系统,涉及信息安全技术领域,包括以下步骤:接收图像,对图像进行色彩细粒度扩展得到图像颜色通道特征,将图像颜色通道特征输入至预先建立的二阶差分层内,得到块效应特征;将二阶差分层输入至预先建立的双分支网络内进行训练,得到训练后的二阶差分层,将块效应特征输入至训练后的二阶差分层内,提取得到水平特征和垂直特征。
-
公开(公告)号:CN113283393B
公开(公告)日:2023-07-25
申请号:CN202110717852.2
申请日:2021-06-28
Applicant: 南京信息工程大学
IPC: G06V20/40 , G06V40/16 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于图像组与两流网络的Deepfake视频检测方法,包括以下步骤:(1)提取待检测视频的关键帧组成图像组;(2)将图像组的首帧输入两流网络中的空间流提取空间特征;(3)将图像组的剩余帧分别与首帧差分以获取差图,并组成差图序列输入两流网络中的时间流提取时间特征;(4)将提取到的空间特征和时间特征融合,利用动态路由算法评估视频的真实性。相比于现有技术,本发明利用图像组减少了计算冗余,使网络专注于关键帧,通过融合空间特征和时间特征充分利用关键帧的时空信息,并通过动态路由算法进行分类以得到更准确的评估结果。
-
-
-
-
-
-
-
-
-