-
公开(公告)号:CN119540181A
公开(公告)日:2025-02-28
申请号:CN202411599788.2
申请日:2024-11-11
Applicant: 贵州大学
IPC: G06T7/00 , G06V20/10 , G06V20/70 , G06V10/82 , G06V10/44 , G06V10/74 , G06N3/0455 , G06N3/0475 , G06N3/0895 , G06N3/096 , G06N5/04 , G06F40/211
Abstract: 本发明公开了一种基于概念增强的零样本植物病害图像表征描述生成方法,包括:获取植物病害图像;基于所述植物病害图像,获取植物病害图像表征描述数据集和原始文本;基于所述表征描述数据集,获取支持文本;基于所述支持文本和原始文本,构建依存结构有向图,其中,所述依存结构有向图用于表明所述支持文本和原始文本之间的对应依存关系;根据所述依存结构有向图,获取关键概念对;将所述关键概念对输入至大型语言LLAMA3模型,获取真实描述文本。本发明旨在改善植物病理形状描述的准确性和全面性,弥补当前众多方法的缺陷,从而构建一个高效、准确的植物病害图像表型描述方法。
-
公开(公告)号:CN116543146B
公开(公告)日:2023-09-26
申请号:CN202310822911.1
申请日:2023-07-06
Applicant: 贵州大学
IPC: G06V10/25 , G06V10/26 , G06V10/46 , G06V10/80 , G06V10/82 , G06V10/34 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于窗口自注意与多尺度机制的图像密集描述方法,由一个目标检测器和一个区域描述生成器组合而成,在目标检测器内部,输入图像经由基于窗口注意力的特征编码器进行图像表征的学习和提取,该特征编码器由12层ViT模块堆叠而成,在各层模块内,图像特征图被划分为多个大小均等的窗口并进行窗口内的注意力运算,特征编码器计算出5种不同尺度的图像特征,并通过目标检测头预测出关键区域的位置信息,模型据此从多尺度特征中切割出区域特征,区域描述生成器采用预训练BERT模型作为核心,依据输入的全局表征和区域特征,以自回归的方式进行区域描述的生成。本发明能够准确捕捉图像多个关键对象并生成高质量描述。
-
公开(公告)号:CN116612335A
公开(公告)日:2023-08-18
申请号:CN202310878846.4
申请日:2023-07-18
Applicant: 贵州大学
IPC: G06V10/764 , G06V10/82 , G06N3/0499 , G06N3/045 , G06N3/0895 , G06V10/74
Abstract: 本发明公开了一种基于对比学习的少样本细粒度图像分类方法,属于深度学习和计算机视觉领域,包括:将原始数据集进行划分,创建元训练集、元验证集和元测试集,对于每个任务,使用抽样技术从元训练集中划分出支持集和查询集,用一个共享权重的转换器作为支持集和查询集的嵌入特征提取器;对从转换器中提取支持集和查询集的嵌入特征进行处理,获得用于对比学习的特征表示,在生成对比学习特征之后,对这些特征进行正则化处理,去除数据增强对特征的影响;然后进行对比学习和损失计算及类别预测和模型训练。本发明具有较高识别精度。
-
公开(公告)号:CN115984683A
公开(公告)日:2023-04-18
申请号:CN202211311775.1
申请日:2022-10-25
Applicant: 贵州大学
IPC: G06V20/10 , G06V10/40 , G06V10/82 , G06V10/764 , G06N3/0464
Abstract: 本发明公开了一种基于神经局域连接的线性分类方法,包括:从数据集中获取原始图像数据,经过去除全连接层和预测层的神经网络模型处理,得到特征向量X;对X进行分区,以区间长α按步长β向右移动,每滑动一次就进行一次矩阵乘法运算,直到最后一个区间;若n‑α能被β整除,则共有t份数据,经过运算后得到单个输出矩阵y1,y2,y3,…,yt;若n‑α不能被β整除,向下取整共有t份数据,经过矩阵乘法运算后得到单个输出矩阵y1,y2,y3,…,yt,向上取整共有t+1份数据,经过矩阵乘法运算后分别得到单个输出矩阵y1,y2,y3,…,yt+1;将所有输出矩阵连接起来得到新矩阵Y。本发明在学习相对较多特征时的图像时,能够降低参数量。
-
公开(公告)号:CN115587949A
公开(公告)日:2023-01-10
申请号:CN202211329001.1
申请日:2022-10-27
Applicant: 贵州大学
Abstract: 本发明公开了一种基于可见光图像的农业多光谱视觉重构方法,包括:数据采集、单通道光谱图像矫正、RGB图像与单通道光谱图像对齐、多张单通道光谱图像合并、随机裁剪得到的裁剪图像作为数据集;构建网络模型:将数据集输入到所构建的网络模型中,训练网络模型,得到重构结果最佳的模型;将可见光图像输入到重构结果最佳的模型中,输出重构的农业多光谱图像。本发明能够较好地重构出对应多光谱图像,且能够运用到真实场景中。
-
公开(公告)号:CN114611667A
公开(公告)日:2022-06-10
申请号:CN202210229602.9
申请日:2022-03-09
Applicant: 贵州大学
IPC: G06N3/04 , G06N3/08 , G06F17/16 , G06K9/62 , G06V10/764
Abstract: 本发明公开了一种基于小规模参数矩阵计算特征图边界的重构方法,包括由小规模矩阵的复制与重塑,构造重构矩阵,构建部件矩阵,重塑重构矩阵,除外界因素对特征产生的干扰。本发明能有效处理特征图边界损失,模型执行效率高、维护修正模型难度小,能提高卷积神经网络的识别效率、准确率和鲁棒性。
-
公开(公告)号:CN119540752A
公开(公告)日:2025-02-28
申请号:CN202411583157.1
申请日:2024-11-07
Applicant: 贵州大学
IPC: G06V20/10 , G06V10/44 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08 , G06T7/00
Abstract: 本发明涉及计算机视觉技术领域,尤其涉及基于位置引导病灶表征学习的植物叶片病害严重程度评估方法,包括:获取病害叶片图像;将病害叶片图像输入层级病灶融合评估网络模型,获取叶片病害严重程度评估结果,其中,层级病灶融合评估网络模型基于真实训练集训练获得,真实训练集为标注病害严重程度的叶片图像,层级病灶融合评估网络模型包括具有先验知识的特征编码器、层级病灶特征融合模块和评估模块,具有先验知识的特征编码器是将图像对输入到位置引导病灶表征学习网络进行训练获得,图像对是指同一叶片的健康和病害状态,叶片病害状态是通过扩散模型从健康叶片生成病灶叶片。本发明能够针对病灶区域进行更精准定位和严重程度评估。
-
公开(公告)号:CN118587098A
公开(公告)日:2024-09-03
申请号:CN202410736992.8
申请日:2024-06-07
Applicant: 贵州大学 , 贵州慧控农耀科技有限公司
IPC: G06T3/4076 , G06T3/4046 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了一种基于特征交互与通道注意力的空谱联合超分辨率方法,属于计算机视觉和图像处理领域,具体过程如下:步骤1、将真实图像G经过下采样与空间尺寸剪切获得X;步骤2、X经特征提取获得当前的空间特征FaN和光谱特征FeN,将FaN和FeN与X融合获得空间融合数据XaN和光谱融合数据XeN,然后将XaN与XeN融合获得空谱融合数据WN;步骤3、将每次的WN通过学习获得最终的空间‑光谱关联特征FSS;步骤4、对FSS解码,获得解码特征数据D;步骤5、将FSS和D相加,并通过卷积处理获得最终的高分辨率重建的目标图像Y;步骤6、将XaN和XeN经过重建获得高空间分辨率图像Ia和高光谱分辨率图像Ie,计算Ia、Ie、Y与G的损失,验证目标图像Y的精准性。
-
公开(公告)号:CN118212540B
公开(公告)日:2024-07-16
申请号:CN202410636283.2
申请日:2024-05-22
Applicant: 贵州大学 , 贵州慧控农耀科技有限公司
Abstract: 本发明公开了一种基于多模态图像融合的杂草侵扰率预测方法,属于人工智能辅助精准农业检测技术领域,通过融合多模态图像,增加图像的信息量从而提高融合图像的质量。并基于融合图进行植被分割和杂草侵扰率预测。本发明由图像配准,图像融合,植被分割和杂草侵扰率预测四个模块组成。在图像配准和图像融合阶段,主要使用卷积进行特征提取和局部的细粒度对齐。而在杂草侵扰率预测模块,依赖于多层感知机良好的全局计算力,并结合多种注意力模块进行侵扰率的回归预测。本发明提出的一种基于多模态图像融合的杂草侵扰率预测方法,能重构出高质量的融合图像,并得到高精度的杂草侵扰率预测结果。
-
公开(公告)号:CN118212540A
公开(公告)日:2024-06-18
申请号:CN202410636283.2
申请日:2024-05-22
Applicant: 贵州大学 , 贵州慧控农耀科技有限公司
Abstract: 本发明公开了一种基于多模态图像融合的杂草侵扰率预测方法,属于人工智能辅助精准农业检测技术领域,通过融合多模态图像,增加图像的信息量从而提高融合图像的质量。并基于融合图进行植被分割和杂草侵扰率预测。本发明由图像配准,图像融合,植被分割和杂草侵扰率预测四个模块组成。在图像配准和图像融合阶段,主要使用卷积进行特征提取和局部的细粒度对齐。而在杂草侵扰率预测模块,依赖于多层感知机良好的全局计算力,并结合多种注意力模块进行侵扰率的回归预测。本发明提出的一种基于多模态图像融合的杂草侵扰率预测方法,能重构出高质量的融合图像,并得到高精度的杂草侵扰率预测结果。
-
-
-
-
-
-
-
-
-