-
公开(公告)号:CN103390063B
公开(公告)日:2016-08-10
申请号:CN201310328671.6
申请日:2013-07-31
Applicant: 南京大学
Abstract: 本发明公开了基于蚁群算法和概率超图的相关反馈图像检索方法,包括训练和检索两个阶段;所述训练阶段包括如下步骤:提取图像底层特征;字典学习;图像库图像高层表示;所述检索阶段包括以下步骤:提取示例图像的底层特征;示例图像高层表示;构造亲和力矩阵;初始化或更新信息素矩阵:对图像库中每一示例图像的检索结果,标注正相关图像和负相关图像,进一步计算语义信息素矩阵;计算亲和力增强概率:利用蚁群算法增强亲和力矩阵;构建超图;返回此轮检索结果,检索结束,或更新信息素矩阵开始下一轮检索。本发明为图像检索引入了高效、准确的图像检索技术,具有较高的使用价值。
-
公开(公告)号:CN104318271A
公开(公告)日:2015-01-28
申请号:CN201410677128.1
申请日:2014-11-21
Applicant: 南京大学
Abstract: 本发明公开了一种基于适应性编码和几何平滑汇合的图像分类方法,包含如下步骤:图像底层局部特征提取;码书学习;特征编码;特征汇合;训练数据分割;建立模型;图像分类。本发明应用在图像分类领域,在图像表示上,本发明能够保持码书以及特征编码的结构化信息,能够大大降低码书生成的时间复杂度,以及生成具有结构化特性的图像特征表示,充分利用了图像特征丰富的空间位置信息,在图像分类上有着显著的效果,因此本发明具有较高的使用价值。
-
公开(公告)号:CN103116766A
公开(公告)日:2013-05-22
申请号:CN201310090274.X
申请日:2013-03-20
Applicant: 南京大学
IPC: G06K9/66
Abstract: 本发明公开了基于增量神经网络和子图编码的图像分类方法,包含如下步骤:局部特征抽取;增量码书网络学习;基于子图的特征编码;图像空间聚合;分类器学习及模型预测;本发明能够高效地学习码书,同时保留视觉单词之间的空间关系,很大程度上缩减了传统算法的时间复杂性,此外,本发明中基于子图的特征编码能充分利用视觉单词之间的空间关系进行特征编码,抽取更加丰富的语义信息,并最终使分类系统在提升计算效率的同时,获得优异的分类性能,因此具有较高的使用价值。
-
公开(公告)号:CN101958006A
公开(公告)日:2011-01-26
申请号:CN201010271655.4
申请日:2010-09-03
Applicant: 南京大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于X光影像的物体三维成像方法,包括以下步骤:步骤一,X光数据采集,由X光影像采集设备环绕着待重建物体每隔一定的固定角度间隔拍摄一幅X光平面二维影像从而构成二维影像序列{Pt},其中t=1,2,3...n,每幅X光平面二维影像中包括X光影像采集设备的探测器中的像素下标(i,j),即像素对应的列位置和行位置;步骤二,三维物体重建,将采集的X光平面二维影像进行重建,获得待重建物体的三维体素表示;步骤三,三维物体显示,对物体的三维体素表示进行渲染从而获得待重建物体的三维影像。本发明利用若干幅X光影像重建出相应物体的三维表示的技术,从而提供了一种更加全面、生动、立体的观察物体内部结构的方法。
-
公开(公告)号:CN118864251A
公开(公告)日:2024-10-29
申请号:CN202411018506.5
申请日:2024-07-29
Applicant: 南京大学
IPC: G06T3/4053 , G06N3/0985 , G06N3/0464 , G06N3/048
Abstract: 本发明公开了一种用于图像超分辨率模型的神经网络结构免训练优化方法,包括:选择搜索空间,所述搜索空间中包括结构各异的候选网络,即原始候选网络;对候选网络中注意力图Softmax函数进行线性化操作,得到与原始候选网络对应的线性化候选网络;使用线性化候选网络,评价候选网络对远距离依赖的捕捉能力;使用原始候选网络,评价候选网络对邻近依赖的捕捉能力;计算候选网络得分;在所述搜索空间中,依据候选网络得分,进行网络结构搜索;对搜索到的网络进行训练和测试,得到优化后的图像超分辨率网络;使用优化后的图像超分辨率网络进行图像超分辨率任务。本发明实现了准确、高效的图像超分辨率网络结构优化,具有较高的使用价值。
-
公开(公告)号:CN118747711A
公开(公告)日:2024-10-08
申请号:CN202410751412.2
申请日:2024-06-12
Applicant: 南京大学
IPC: G06T3/4053 , G06N3/045
Abstract: 本发明公开了一种基于主动域自适应的非配对图像超分辨率重建方法和系统,其中图像超分辨率重建方法包括:1、构建原始域、目标域和插入域;2、利用原始域和目标域训练生成器和判别器,用生成器生成原始域虚假低分辨率图像和插入域虚假低分辨率图像,并分别添加至原始域和插入域;3、从插入域选取图像添加至原始域,对原始域虚假低分辨率图像和原始域真实高分辨率图像进行增强;4、利用增强后的虚假低分辨率图像和真实高分辨率图像训练图像超分辨率重建网络;5、将目标域中待重建的真实低分辨率图像输入图像超分辨率重建网络生成重建的超分辨率图像。该方法在增加最小训练成本的情况下,最大化提升图像超分辨率重建网络在目标域上的性能。
-
公开(公告)号:CN111950545B
公开(公告)日:2024-02-09
申请号:CN202010715197.2
申请日:2020-07-23
Applicant: 南京大学
Abstract: 本发明提供了一种基于MSDNet和空间划分的场景文本检测方法,包括选取MSDNet网络模型,确定初始预训练模型;搭建空间划分网络;搭建回归网络;构造分类loss;空间划分集成;使用concat‑nms算法第一步后处理;使用box‑fix算法第二步后处理;使用tensorflow深度学习框架对已有的数据进行训练;使用已训练好的模型进行场景文本检测。本发明提供的方法可以自由地根据硬件条件和速度要求来选择不同的模型输出端口,通过提出的concat‑nms和box‑fix算法,来生成任意长的和更精确的文本框,在场景文本检测方面取得了令人满意的实验结果。因此,相较于现有技术,本方法灵活性好、分类精度较高、
-
公开(公告)号:CN116824237A
公开(公告)日:2023-09-29
申请号:CN202310715906.0
申请日:2023-06-16
Applicant: 南京大学
IPC: G06V10/764 , G06V10/762 , G06V10/774 , G06V10/82 , G06N3/091
Abstract: 本发明公开了一种基于两阶段主动学习的图像识别分类方法,包含如下步骤:使用常规主动学习方法进行第一阶段主动采样;对各视图中的样本进行聚类;计算两个视图间的一致度;使用表达度和稳定度进行第二阶段主动采样;对神经网络进行训练;对模型进行迭代优化。本发明是一种与具体的学习任务无关、与现有主动学习方法解耦的新型主动学习方法,可以应用在多种主动学习场景中,且可以与现有主动学习方法结合使用。此外,本发明同时考虑到了样本的表达性和稳定性,采样出的用于标注的样本具有较高的可信度。本发明实现了准确、扩展性强的基于多视图聚类计算样本表达度和稳定度的两阶段主动学习方法,因此具有较高的使用价值。
-
公开(公告)号:CN114724015A
公开(公告)日:2022-07-08
申请号:CN202210270638.1
申请日:2022-03-18
Applicant: 南京大学
IPC: G06V10/778 , G06V10/82 , G06V10/764 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于主动域自适应学习降低标注需求的目标检测方法,包括:构建网络模型;进行符合主动学习特征的初始数据划分;确定主动采样过程的采样策略并进行主动采样;对挑选出来的数据进行专家标注;使用更新后的标注数据对模型进行微调;依据当前相关条件及模型表现,决定是否继续迭代模型;利用最后得到的模型进行目标检测。本发明通过将主动学习与域自适应学习结合,提出了一种新的主动域自适应学习策略,大大减少了目标检测任务所需的数据标注量,节省标注成本;依据域自适应过程中的全局与局部特征对齐过程设计了一种新的采样策略,同时考虑了图像级和目标实例级特征,能提升对富信息样本的挑选效果,并有利于模型的性能提升。
-
公开(公告)号:CN111177447B
公开(公告)日:2021-04-30
申请号:CN201911362901.4
申请日:2019-12-26
Applicant: 南京大学
Abstract: 本发明提供了一种基于深度网络模型的行人图像识别方法,包括:对行人图像进行数据预处理;对预处理后的数据执行自适应的采样算法以获得具备更难样本的批量;通过骨干网络模型提取多层特征,使用子模块增强低层特征再进行降尺度并与高层特征拼接得到多层特征,以不同粒度切分多层特征形成多分支的结构,提取各个分支的部件特征与全局特征,并将所提取的全部特征进行拼接得到行人图像的深度表征;训练所构造的网络模型;通过训练好的网络模型提取查询图像的深度表征,根据每个查询图像与被查询集的余弦距离相似度,返回每个查询图像的识别结果。通过以上所述的多层次多粒度的行人再识别深度模型,本发明实现了现阶段最佳的行人再识别性能。
-
-
-
-
-
-
-
-
-