-
公开(公告)号:CN112818646B
公开(公告)日:2023-07-14
申请号:CN202110219192.5
申请日:2021-02-26
Applicant: 南京邮电大学
IPC: G06F40/166 , G06T3/00 , G06F18/214 , G06N3/0464 , G06N3/049 , G06N3/084
Abstract: 本发明提出了一种基于生成对抗网络和动态编辑模块的根据文本编辑图片的方法,通过生成器和判别器的对抗训练,使得生成器最终能够将给定的图片编辑为与文本描述相匹配的图片。主要包括以下步骤:获取文本与图片匹配的数据集、搭建基于生成对抗网络的生成对抗模型;通过梯度下降法迭代训练生成网络和判别网络。最终获得一个能够有效根据文本编辑已有图片的生成器。本发明通过生成器中的动态编辑模块以及动态卷积模块,将文本信息融合进图片解码过程中;通过对判别器的零中心匹配梯度惩罚,促使生成器生成的图片与给定的文本匹配;有效地解决了编辑的图片细节缺失,编辑后的图片与给定文本不匹配的问题。
-
公开(公告)号:CN114579783A
公开(公告)日:2022-06-03
申请号:CN202210232828.4
申请日:2022-03-09
Applicant: 南京邮电大学
IPC: G06F16/58 , G06V10/32 , G06V10/40 , G06V10/74 , G06V10/774 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明是一种基于最近邻与困难样本挖掘的无监督图像嵌入学习方法,包括步骤1:搭建深度学习框架运行环境;步骤2:搭建执行无监督嵌入学习任务的网络模型;步骤3:使用数据集通过端到端的方式对网络进行训练;步骤4:将步骤3完成训练后的图像输入到无监督嵌入学习任务的网络模型中,根据图像特征之间的余弦相似性检索出相似度最近的图像,如检索到的图像属于同一类别,则检索成功。该方法利用深度神经网络对图像提取特征,然后根据特征之间的余弦相似性,挖掘样本的最近邻域,从而将图像分为若干个邻域,邻域内的样本图像共享伪类别信息,使得模型能够学习到图像的高判别性特征。
-
公开(公告)号:CN114022362A
公开(公告)日:2022-02-08
申请号:CN202111364295.7
申请日:2021-11-17
Applicant: 南京邮电大学
Abstract: 一种基于金字塔注意力机制和对称网络的图像超分辨率方法,首先对于待训练数据集处理,制作与真实图像对应的低分辨率图像;然后对真实图像输入进行特征提取,经过卷积‑池化操作后,通过金字塔注意力模块进行计算,获取图像的多层次信息分布与细节特征;再计算得到误差损失,用来更新网络参数与梯度;再进行重构得到重构的结果图,与真实图像进行计算损失,并反向更新网络的参数和梯度;最后将低分辨率图像输入进第二个网络,逐分辨率的扩大低分辨率图像,最后得到生成的高分辨率图像,并于真实图像计算损失,再次对网络的参数进行更新。本方法通过注意力机制和损失函数,对网络进行参数更新与迭代,极大提升网络的生成能力与泛化能力。
-
公开(公告)号:CN112884893A
公开(公告)日:2021-06-01
申请号:CN202110275614.0
申请日:2021-03-15
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于非对称卷积网络和注意力机制的跨视角图像生成方法,该网络结构由两个部分组成:一阶段生成网络和二阶段生成网络。首先,将原始输入送到一阶段生成网络中生成粗略的结果,然后将一阶段网络生成的粗略结果作为输入送到二阶段生成网络中生成精细的结果,将其作为最终的结果输出。本方法在U‑net网络中嵌入非对称卷积来提高网络在不同尺度上提取对象特征的能力,并且使用空间自适应归一化代替传统的批归一化。此外,为了更好地学习来自不同视图的图像之间的对应关系,本方法使用SE模块来细化中间特征图,从而生成更真实的图像。最后,本方法还设计了一个额外的损失函数来增强网络的学习能力,从而实现更稳定的优化过程。
-
公开(公告)号:CN108304612A
公开(公告)日:2018-07-20
申请号:CN201711430008.1
申请日:2017-12-26
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于噪声补偿的迭代平方根CKF的汽车雷达目标跟踪方法,本发明首先设置系统初始值,在时间更新阶段计算容积点值;传播容积点;估计一步预测状态和误差协方差平方根因子;在量测更新阶段引入Gauss-Newton非线性迭代方法进行迭代更新,每次迭代时计算容积点;传播容积点;计算量测估计;计算新息协方差的平方根因子和互协方差矩阵;计算卡尔曼增益;更新本次迭代的状态和误差协方差平方根因子估计;判断是否达到迭代终止条件;更新此刻状态和误差协方差平方根的估计;量测更新过程中通过调整噪声补偿因子对状态估计进行优化。本发明能够有效提高汽车雷达目标跟踪过程中的精确性与稳定性。
-
公开(公告)号:CN114299362B
公开(公告)日:2025-01-10
申请号:CN202111616910.9
申请日:2021-12-27
Applicant: 南京邮电大学
IPC: G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于k‑means聚类的小样本图像分类方法,首选,一个包含支持集和查询集的任务被送到特征提取器中,经过连续的卷积块操作后,获得深度图像特征。接着,一个小样本分类模块利用查询集和支持集的深度图像特征,通过构建相似矩阵,可以预测查询集中的图片所属的支持类别。与此同时,一个k‑means聚类任务对特征提取器所输出的图像特征进行聚类,形成若干个簇,同时为每一个簇内的样本分配伪标签。簇分类模块根据伪标签将特征提取器输出的图像特征分成k个类别。在训练过程中,多个任务共享信息,相互促进学习。与现有的小样本图像分类模型相比较,本发明在保持模型稳定性的同时显著提升了小样本图像分类的准确性。
-
公开(公告)号:CN114022362B
公开(公告)日:2024-11-08
申请号:CN202111364295.7
申请日:2021-11-17
Applicant: 南京邮电大学
IPC: G06T3/4007 , G06T3/4046 , G06T3/4053 , G06N3/0464 , G06N3/084
Abstract: 一种基于金字塔注意力机制和对称网络的图像超分辨率方法,首先对于待训练数据集处理,制作与真实图像对应的低分辨率图像;然后对真实图像输入进行特征提取,经过卷积‑池化操作后,通过金字塔注意力模块进行计算,获取图像的多层次信息分布与细节特征;再计算得到误差损失,用来更新网络参数与梯度;再进行重构得到重构的结果图,与真实图像进行计算损失,并反向更新网络的参数和梯度;最后将低分辨率图像输入进第二个网络,逐分辨率的扩大低分辨率图像,最后得到生成的高分辨率图像,并于真实图像计算损失,再次对网络的参数进行更新。本方法通过注意力机制和损失函数,对网络进行参数更新与迭代,极大提升网络的生成能力与泛化能力。
-
公开(公告)号:CN108304612B
公开(公告)日:2021-08-10
申请号:CN201711430008.1
申请日:2017-12-26
Applicant: 南京邮电大学
IPC: G06F30/15 , G06F30/20 , G01S13/72 , G06F119/10
Abstract: 本发明公开了一种基于噪声补偿的迭代平方根CKF的汽车雷达目标跟踪方法,本发明首先设置系统初始值,在时间更新阶段计算容积点值;传播容积点;估计一步预测状态和误差协方差平方根因子;在量测更新阶段引入Gauss‑Newton非线性迭代方法进行迭代更新,每次迭代时计算容积点;传播容积点;计算量测估计;计算新息协方差的平方根因子和互协方差矩阵;计算卡尔曼增益;更新本次迭代的状态和误差协方差平方根因子估计;判断是否达到迭代终止条件;更新此刻状态和误差协方差平方根的估计;量测更新过程中通过调整噪声补偿因子对状态估计进行优化。本发明能够有效提高汽车雷达目标跟踪过程中的精确性与稳定性。
-
公开(公告)号:CN112818646A
公开(公告)日:2021-05-18
申请号:CN202110219192.5
申请日:2021-02-26
Applicant: 南京邮电大学
IPC: G06F40/166 , G06T3/00 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提出了一种基于生成对抗网络和动态编辑模块的根据文本编辑图片的方法,通过生成器和判别器的对抗训练,使得生成器最终能够将给定的图片编辑为与文本描述相匹配的图片。主要包括以下步骤:获取文本与图片匹配的数据集、搭建基于生成对抗网络的生成对抗模型;通过梯度下降法迭代训练生成网络和判别网络。最终获得一个能够有效根据文本编辑已有图片的生成器。本发明通过生成器中的动态编辑模块以及动态卷积模块,将文本信息融合进图片解码过程中;通过对判别器的零中心匹配梯度惩罚,促使生成器生成的图片与给定的文本匹配;有效地解决了编辑的图片细节缺失,编辑后的图片与给定文本不匹配的问题。
-
公开(公告)号:CN119600055A
公开(公告)日:2025-03-11
申请号:CN202411638631.6
申请日:2024-11-15
Applicant: 南京邮电大学
IPC: G06T7/207 , G06V10/77 , G06V10/82 , G06V10/80 , G06N3/0455 , G06N3/045 , G06N3/0464
Abstract: 本发明提出了一种基于Transformer模型的多特征融合的目标轨迹预测方法,该方法包括:步骤1、将目标轨迹的位置信息输入到特征生成模块来生成速度、加速度、角速度等多特征信息;再将生成的多特征信息和原始位置信息分别嵌入后进行向量表示并卷积融合成一个多特征向量;步骤2、改造Transformer模型的多头注意力机制,将所提的傅里叶自适应滤波与多头注意力相结合提出傅里叶自适应滤波注意力新算法,利用新算法建模轨迹序列特征的依赖关系,再在Encoder中的末尾添加卷积和池化操作以便进一步提取特征;步骤3、将经多次Encoder处理后的特征送入到Transformer模型的Decoder中进行解码并做出预测。本发明能够高效挖掘提取目标轨迹数据的特征信息,实现对目标的高精度轨迹预测。
-
-
-
-
-
-
-
-
-