-
公开(公告)号:CN111753189B
公开(公告)日:2024-07-05
申请号:CN202010476647.7
申请日:2020-05-29
申请人: 中山大学
IPC分类号: G06F16/9535 , G06F16/9538 , G06F16/435 , G06F16/438 , G06F16/45 , G06F16/31 , G06F16/338 , G06F16/35 , G06F16/538 , G06F16/55 , G06N3/0464 , G06N3/08
摘要: 本发明提供了一种少样本跨模态哈希检索共同表征学习方法,该方法设计了知己—知彼网络。知己—知彼网络主要涉及两大模块:知己模块和知彼模块。知己模块能够充分利用隐藏在数据本身的信息,融合不同层次的特征,提取更加具有全局性的特征;在知己模块的基础上,知彼模块对所有样本的相关性进行建模,捕获数据之间的非线性依赖关系,以便更好地学习不同模态数据的共同表征。最后,建立了保持模态内和模态间相似性的损失函数,对网络进行训练优化。本发明可有效地解决少样本情况下数据不均衡的问题,能够学习更加具有代表性的共同表征,从而较大幅度提高跨模态检索精度。
-
公开(公告)号:CN116954594A
公开(公告)日:2023-10-27
申请号:CN202310868915.3
申请日:2023-07-14
申请人: 中山大学
摘要: 本申请公开了代码重构方法、系统、计算机设备及介质,所述方法包括:构建代码编辑器,该代码编辑器设置有代码风格选项,向代码编辑器输入待重构代码片段,按照所重构的代码风格,将内置的chatGPT提示语与待重构代码片段进行拼接,得到对应代码风格的chatGPT请求。将chatGPT请求重复多次输入所述chatGPT模块,由chatGPT模块返回所述chatGPT请求对应的应答内容;对每次返回的应答内容进行抽取处理,得到多个重构代码片段,并对重构代码片段排序评分。本申请提供的代码重构方法针对特定风格的代码重构,不需要重新编写专门的程序,且使用门槛低,智能化和个性化程度高,代码重构效率高。
-
公开(公告)号:CN110851633B
公开(公告)日:2022-04-22
申请号:CN201911128818.0
申请日:2019-11-18
申请人: 中山大学
IPC分类号: G06F16/53 , G06F16/583 , G06N3/04 , G06N3/08
摘要: 本发明提供一种实现同时定位和哈希的细粒度图像检索方法,该方法通过同时哈希和定位,可以更好地学习到输入图像的判别性区域以及融合不同尺度的输入信息,提升检索的精度,此外,方法中的哈希和定位模块可以以一种相互促进的方式实现共同训练,并且可以避免传统方法中的人工抽取图像特征,实现了端到端的训练,并且检索的精度大大提升。
-
-
公开(公告)号:CN109033107B
公开(公告)日:2021-09-17
申请号:CN201710433984.6
申请日:2017-06-09
申请人: 腾讯科技(深圳)有限公司 , 中山大学
发明人: 赖韩江
IPC分类号: G06F16/583 , G06K9/62 , G06N3/04 , G06N3/08
摘要: 本发明提供一种图像检索方法和装置、计算机设备和存储介质,包括:获取检索图像;将检索图像输入预先对具有相似关系的训练图像样本训练得到的卷积神经网络,通过输入层和前置卷积层得到第一输出结果;第一输出结果输入到的分支网络,得到每个像素点为物体的概率对应的物体的位置概率图;第一输出结果输入到卷积神经网络的中间卷积层,得到检索图像的特征图;对特征图与位置概率图进行点乘处理得到融合位置信息的特征图,并将融合位置信息的特征图输入至卷积神经网络的后置卷积层,通过后置卷积层和全连接层,输出检索图像的特征向量;将检索图像的特征向量与数据库的各图像的特征向量进行比较,得到检索图像的检索结果。该方法精确度高。
-
公开(公告)号:CN112364192A
公开(公告)日:2021-02-12
申请号:CN202011092264.6
申请日:2020-10-13
申请人: 中山大学
IPC分类号: G06F16/53 , G06F16/51 , G06F16/583 , G06N20/20
摘要: 本发明提供一种基于集成学习的零样本哈希检索方法,该方法将集成学习的方法应用于零样本图片检索问题,使用VGG‑16提取图片的高维实数特征,然后用全连接层和激活函数将高维实数特征转化为低维二进制哈希码,在保证检索效果的前提下,减少了存储空间。之后,利用集成学习的训练方法,更新哈希模型,从而使模型具有更强的泛化能力,使模型在新类别的图片上的检索效果也大大提升。
-
公开(公告)号:CN110245229A
公开(公告)日:2019-09-17
申请号:CN201910365005.7
申请日:2019-04-30
申请人: 中山大学
IPC分类号: G06F16/35
摘要: 本发明提供一种基于数据增强的深度学习主题情感分类方法,该方法通过bert预训练语言模型能够让词先获取到一个初步的语义信息,然后经过双向GRU网络学习词与词之间的上下文语义特征,同时提出一种增强数据的方法,通过剔除每个句子中影响情感极性最大的词,迫使模型去学习更难句子的情感极性的判定,同时扩充数据集又使得模型能够从更多的数据集捕获特征。通过在相应数据集上的实验表明,本发明对比之前的情感分类方法,有较大提升。
-
公开(公告)号:CN109509144A
公开(公告)日:2019-03-22
申请号:CN201811296157.8
申请日:2018-11-01
申请人: 中山大学 , 广东恒电信息科技股份有限公司
摘要: 本发明提供一种基于条件对抗生成网络的与职业相关的人脸老化方法。本发明首先收集一个职业面部老化数据集来研究职业对人脸老化的影响,它包括三个职业类型。其次,本发明提出了一个新的考虑职业信息的基于条件对抗生成网络的人脸老化网络,它学习了不同职业下的人脸的老化过程。本发明的老化过程中考虑了两个方向:个人特征的保留和不同职业所带来的不同的老化特征。本发明通过深度自编码网络,来保持个人的面部特征,使用了条件对抗生成网络来获得不同职业下的老化特征。
-
公开(公告)号:CN107918780A
公开(公告)日:2018-04-17
申请号:CN201710780963.1
申请日:2017-09-01
申请人: 中山大学 , 广东恒电信息科技股份有限公司
CPC分类号: G06K9/6271 , G06K9/6256 , G06K9/629 , G06N3/0454
摘要: 本发明提供一种基于关键点检测的衣服种类和属性分类方法,该方法先采集训练样本的数据;然后构建可配置的检测衣服关键点的深度模型,并将训练样本的数据输入深度模型,以对深度模型进行训练;接着利用训练后的检测关键点的深度模型对衣服图像进行分析,预测衣服图像中每个关键点的位置;最后根据S3中预测关键点的结果,以此提取相关局部信息,再融合全局的图片信息,再通过深度模型对衣服种类和属性进行训练、预测。该方法实现了能够更好融合衣服局部和全局特征。
-
公开(公告)号:CN118396899A
公开(公告)日:2024-07-26
申请号:CN202410616604.2
申请日:2024-05-17
申请人: 中山大学
IPC分类号: G06T5/77 , G06T5/60 , G06T5/70 , G06N3/0464 , G06N3/084
摘要: 本发明公开了一种损坏文档图像的修复方法、装置、终端设备及计算机可读存储介质,方法包括:获取待处理的损坏文档图像,并输入至训练完成的模型中进行图像修复,生成修复后的文档图像;模型的训练过程包括:获取不同的损坏文档图像和对应的无损文档图像,并将它们分为同一组;逐一将各组文档图像输入至待训练的模型中进行迭代训练,直至损失函数收敛,得到训练完成的模型;在每次训练时,通过内设编码器利用空间金字塔对文档图像进行编码,再经过内设的扩散子模型进行扩散处理,得到去噪后的修复文档图像,将其与无损文档图像对比计算损失函数。通过实施本发明训练出一个通用的图像修复模型,实现对不同图像场景下的损坏文档图像进行图像修复。
-
-
-
-
-
-
-
-
-