-
公开(公告)号:CN110826638B
公开(公告)日:2023-04-18
申请号:CN201911099492.3
申请日:2019-11-12
Applicant: 福州大学
IPC: G06V10/764 , G06V10/40 , G06V10/77 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0442 , G06N3/045 , G06N3/0455 , G06N3/0475 , G06N3/084
Abstract: 本发明涉及一种基于重复注意力网络的零样本图像分类模型,包括重复注意力网络模块,用于训练并获取图像区域序列信息;生成对抗网络模块,用于获取视觉误差信息;视觉特征提取网络处理模块,用于得到图像一维视觉特征向量;属性语义转换网络模块,用两层的线性激活层将低维的属性语义向量映射到与视觉特征向量维度相同的高维特征向量;视觉‑属性语义衔接网络,实现视觉特征向量与属性语义特征向量的融合;得分分类结果和奖励输出模块,采用交叉熵损失对已见过带标签的类别进行分类,而奖励输出是对未见过的无标签数据进行惩罚,以及惩罚无标签数据中见过的类别和未见过的类别最有可能性的预测结果。本发明能够有效的解决图像类别标签缺失问题。
-
公开(公告)号:CN110826639A
公开(公告)日:2020-02-21
申请号:CN201911099506.1
申请日:2019-11-12
Applicant: 福州大学
IPC: G06K9/62
Abstract: 本发明涉及一种利用全量数据训练零样本图像分类方法,包括以下步骤:步骤S1:将全量数据分为源数据和目标数据;步骤S2:将源数据集和目标数据集输入视觉特征网络,将原始图像映射到视觉特征空间,得到图像视觉特征向量;步骤S3:将原始图像的低维属性语义通过语义转换网络映射到高维,得到语义特征向量;步骤S4:根据得到的图像视觉特征向量和语义特征向量,利用视觉-属性语义衔接网络完成融合,得到拼接结果;步骤S5:根据拼接结果,通过得分子网络在语义空间中产生原始图像每一类的得分,并根据得分输出最终的预测结果。本发明能够有效的解决图像类别标签缺失问题。
-
公开(公告)号:CN117392258A
公开(公告)日:2024-01-12
申请号:CN202311553856.7
申请日:2023-11-21
Applicant: 福州大学
IPC: G06T11/00 , G06N3/045 , G06N3/0464 , G06N3/0475 , G06N3/094
Abstract: 本发明提供一种基于生成对抗网络的生成对称蕾丝图像的方法,提出了一种基于StyleGAN2的改进模型SStyleGAN(Symmetry StyleGAN),用于生成交叉对称的的蕾丝图像。在判别器的方面,为了强化提出模型对图像对称性的关注度,本方法增加了对称判别器,即SStyleGAN采用双判别器结构;在生成器方面,为了提高蕾丝图像左右两边特征图的相似性,本方法基于StyleGAN2的损失函数,增加了均方误差损失项;在噪声输入方面,为了控制蕾丝图像在蕾丝花边等细节处的对称性,将StyleGAN2模型的噪声采样函数修改为对称结构,使噪声输入本身具备对称性。
-
公开(公告)号:CN110826638A
公开(公告)日:2020-02-21
申请号:CN201911099492.3
申请日:2019-11-12
Applicant: 福州大学
IPC: G06K9/62
Abstract: 本发明涉及一种基于重复注意力网络的零样本图像分类模型,包括重复注意力网络模块,用于训练并获取图像区域序列信息;生成对抗网络模块,用于获取视觉误差信息;视觉特征提取网络处理模块,用于得到图像一维视觉特征向量;属性语义转换网络模块,用两层的线性激活层将低维的属性语义向量映射到与视觉特征向量维度相同的高维特征向量;视觉-属性语义衔接网络,实现视觉特征向量与属性语义特征向量的融合;得分分类结果和奖励输出模块,采用交叉熵损失对已见过带标签的类别进行分类,而奖励输出是对未见过的无标签数据进行惩罚,以及惩罚无标签数据中见过的类别和未见过的类别最有可能性的预测结果。本发明能够有效的解决图像类别标签缺失问题。
-
公开(公告)号:CN110516694A
公开(公告)日:2019-11-29
申请号:CN201910607816.3
申请日:2019-07-05
Applicant: 福州大学
Abstract: 本发明涉及一种基于代价敏感学习的排水管道缺陷自动检测方法,包括:构建排水管道数据集;估算每种错误分类带来的损失,构建代价矩阵;通过代价矩阵构建置信度向量;基于置信度向量构建代价敏感的卷积神经网络;并使用管道数据集训练代价敏感的卷积神经网络。使用训练好的网络对待识别的图像进行识别,得到图像中包含缺陷的概率。基于代价矩阵构建的代价敏感的卷积神经网络能够以最小化代价为目标而不是盲目地追求分类精度,从而实现更为经济,有效的排水管道缺陷自动检测系统。
-
公开(公告)号:CN110826639B
公开(公告)日:2023-05-12
申请号:CN201911099506.1
申请日:2019-11-12
Applicant: 福州大学
IPC: G06V10/764 , G06V10/774
Abstract: 本发明涉及一种利用全量数据训练零样本图像分类方法,包括以下步骤:步骤S1:将全量数据分为源数据和目标数据;步骤S2:将源数据集和目标数据集输入视觉特征网络,将原始图像映射到视觉特征空间,得到图像视觉特征向量;步骤S3:将原始图像的低维属性语义通过语义转换网络映射到高维,得到语义特征向量;步骤S4:根据得到的图像视觉特征向量和语义特征向量,利用视觉‑属性语义衔接网络完成融合,得到拼接结果;步骤S5:根据拼接结果,通过得分子网络在语义空间中产生原始图像每一类的得分,并根据得分输出最终的预测结果。本发明能够有效的解决图像类别标签缺失问题。
-
公开(公告)号:CN110930377B
公开(公告)日:2022-05-13
申请号:CN201911125639.1
申请日:2019-11-18
Applicant: 福州大学
IPC: G06T7/00
Abstract: 本发明涉及一种基于多任务学习的排水管道异常类型自动检测方法。首先通过分析管道缺陷深度特征信息将特征空间存在重叠的类别划分到同一分组中;然后基于分组情况构建多任务学习深度神经网络,该网络将分类任务划分为两级任务,高级分类任务尝试区分不同分组的缺陷图像,低级任务拥有多个子任务,分别用于着重区分组内具有相似特征空间的缺陷类型,最终的缺陷分类结果来自条件概率。本发明通过引入多任务学习策略使得模型能够减少特征空间重叠带来的精度损失,提升模型的检测精度,从而实现更为有效的排水管道缺陷自动检测系统。
-
公开(公告)号:CN111274396A
公开(公告)日:2020-06-12
申请号:CN202010062565.8
申请日:2020-01-20
Applicant: 福州大学
IPC: G06F16/35 , G06F40/284 , G06F40/30 , G06F40/247 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于外部知识的视角级文本情感分类方法及系统,包括步骤:对视角级文本进行特征化处理,并捕获文本的双向语义依赖关系;通过动态注意力机制将当前单词与外部知识同义词相结合,并引入哨兵向量避免外部知识对模型的误导;通过位置注意力机制来判断每个单词对视角词的贡献程度;通过计算每个记忆内容的注意力得分,利用门限循环单元将每层的注意力得分与上一层的输出结果非线性结合,并将最后一层作为文本的情感特征表示;利用分类函数得到最终的情感分类结果。本发明能够提高视角级文本情感分类的性能和降低资源的消耗。
-
公开(公告)号:CN110874411A
公开(公告)日:2020-03-10
申请号:CN201911138355.6
申请日:2019-11-20
Applicant: 福州大学
IPC: G06F16/35 , G06F40/205 , G06F40/289 , G06F40/30 , G06K9/62 , G06N3/04
Abstract: 本发明涉及一种基于注意力机制融合的跨领域情感分类系统。包括:评论文本预处理模块,用于获取源领域和目标领域文本的向量形式;文本语义学习模块,用于学习词语之间的语义依赖关系;注意力机制融合模块,通过将不同的注意力方式进行融合,获得词语对文本分类的综合权重;分层注意模块,分别从词级和句子级计算文本的注意力权重,判断词语对句子表示,句子对文档表示的权重;情感类别输出模块,利用分类函数得到最终的情感分类结果。本发明能够自动抽取出目标领域与源领域的潜在通用特征,并对特征进行抽象和组合,最终识别出目标领域文本的情感类别。
-
公开(公告)号:CN110874397A
公开(公告)日:2020-03-10
申请号:CN201911138610.7
申请日:2019-11-20
Applicant: 福州大学
Abstract: 本发明涉及一种基于注意力机制的水军评论检测系统及方法。包括文本特征处理模块,用于将文本特征进行向量化处理并提取文本的离散特征进行归一化处理;行为特征提取模块,用于将行为特征进行向量化处理并进行归一化处理;注意力机制权重计算模块,用于计算归一化后的文本特征、行为特征的注意力权重;集成学习模块,将带有权重的行为特征、文本特征作为输入,用分类函数得到评论最终的分类结果。本发明提出的系统及方法能够自动抽取出有效特征,并对特征进行抽象和组合,最终识别出分类结果。
-
-
-
-
-
-
-
-
-