一种基于神经网络的中药材真伪高光谱检测方法

    公开(公告)号:CN118865143B

    公开(公告)日:2024-12-06

    申请号:CN202411346579.7

    申请日:2024-09-26

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于神经网络的中药材真伪高光谱检测方法,包括将待检测中药高光谱图像通过多级卷积层进行局部特征学习和降低特征图空间分辨率,再将输出的特征分别沿空间和光谱维度展开得到原始空间特征序列和原始空间特征序列,对原始空间特征序列利用空间注意力分支学习空间上下文信息得到深层空间特征;同时对原始光谱特征序列利用光谱注意力分支学习光谱上下文信息得到深层光谱特征,将深层空间特征和深层光谱特征经过特征交叉融合网络和特征上采样层得到深层全局特征,并通过线性层映射为类别分数向量,经过Softmax层激活得到每个像素点的分类标签。能够高效提取高光谱图像的空间和光谱特征,对真伪中药进行高效的精细化检测。

    一种基于特征聚类的无监督领域自适应语义分割方法

    公开(公告)号:CN116468890A

    公开(公告)日:2023-07-21

    申请号:CN202310390433.1

    申请日:2023-04-11

    Applicant: 湖南大学

    Abstract: 本发明提供了一种基于特征聚类的无监督领域自适应语义分割方法,包括如下步骤:步骤S1、建立有标签的源域场景数据集和无标签的目标域场景数据集;步骤S2、建立基于特征聚类的语义分割模型训练框架;步骤S3、将源域场景数据集的图像和目标域场景数据集的图像分别输入;步骤S4、获得类条件特征映射图,获得源域场景的类条件特征精炼图,获得目标域场景的类条件特征精炼图;步骤S5、计算得到每一个类别的特征聚类质心,再计算损失;步骤S6、参数优化,迭代运行以得到参数优化后的分割网络和评论家网络。本发明聚类质心的偏移小,使在虚拟源域数据上训练的模型性能在实际目标域场景数据上性能好。

    一种基于双通道压缩注意力网络的高光谱中药材鉴别方法

    公开(公告)号:CN115979973A

    公开(公告)日:2023-04-18

    申请号:CN202310271270.5

    申请日:2023-03-20

    Applicant: 湖南大学

    Abstract: 一种基于双通道压缩注意力网络的高光谱中药材鉴别方法,包括:1、构建第一金银花中药材高光谱数据集和第二金银花中药材高光谱数据集;2、构建分组融合模块,将第一金银花中药材高光谱数据集输入到分组融合模块,最终生成空间通道的输入矩阵和光谱通道的输入矩阵;3、搭建空谱双通道压缩注意力网络模型,优化空谱双通道压缩注意力网络模型的参数;4、利用第二金银花中药材高光谱数据集对训练后的空谱双通道压缩注意力网络模型进行验证。本发明利用分组融合模块降低了高光谱数据的冗余程度,同时利用双通道压缩注意力网络学习金银花高光谱数据的空谱特征表示,减少了有效信息丢失,降低了注意力计算的资源消耗,提高了金银花的鉴别精度。

    基于模仿与强化学习的医药机器人自主避障方法及系统

    公开(公告)号:CN114779792B

    公开(公告)日:2022-09-09

    申请号:CN202210694891.X

    申请日:2022-06-20

    Applicant: 湖南大学

    Abstract: 只需一组网络参数就可以适用于处理各种情况,本发明公开了一种基于模仿与强化学习的 即网络具有较好的泛化性。医药机器人自主避障方法及系统,该方法包括:步骤1:设置医药机器人医药搬运场景;步骤2:获取专家演示二元组数据;步骤3:构建基于模仿学习和强化学习的医药机器人移动控制模型;步骤4:模型训练;步骤5:对医药机器人进行自主控制。本发明在医药机器人移动控制模型中将图注意模块引入价值网络中,使能够适应智能体和障

    一种基于深度双先验渐进融合的高光谱压缩感知重建方法

    公开(公告)号:CN119205493B

    公开(公告)日:2025-03-07

    申请号:CN202411699618.1

    申请日:2024-11-26

    Applicant: 湖南大学

    Abstract: 本发明涉及计算机技术领域,具体为一种基于深度双先验渐进融合的高光谱压缩感知重建方法,包括如下步骤:1、拍摄获取原始的压缩测量图像,然后对原始的压缩测量图像进行归一化处理,得到归一化处理后的压缩测量图像;2、基于压缩感知重构问题构建目标函数,并对目标函数进行优化,得到优化后最终的目标函数;3、根据归一化处理后的压缩测量图像建立用于高光谱压缩感知重建的自监督学习模型;自监督学习模型包括外循环迭代优化和两个内循环网络训练;4、利用自监督学习模型对优化后最终的目标函数进行求解,通过融合两个内循环网络训练过程得到的深度先验项,得到最终的重构图像。本发明解决了现有自监督光谱重建方法成像质量低的问题。

    一种基于神经网络的中药材真伪高光谱检测方法

    公开(公告)号:CN118865143A

    公开(公告)日:2024-10-29

    申请号:CN202411346579.7

    申请日:2024-09-26

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于神经网络的中药材真伪高光谱检测方法,包括将待检测中药高光谱图像通过多级卷积层进行局部特征学习和降低特征图空间分辨率,再将输出的特征分别沿空间和光谱维度展开得到原始空间特征序列和原始空间特征序列,对原始空间特征序列利用空间注意力分支学习空间上下文信息得到深层空间特征;同时对原始光谱特征序列利用光谱注意力分支学习光谱上下文信息得到深层光谱特征,将深层空间特征和深层光谱特征经过特征交叉融合网络和特征上采样层得到深层全局特征,并通过线性层映射为类别分数向量,经过Softmax层激活得到每个像素点的分类标签。能够高效提取高光谱图像的空间和光谱特征,对真伪中药进行高效的精细化检测。

    基于特征解耦的领域泛化和领域自适应血细胞分类方法

    公开(公告)号:CN115937566A

    公开(公告)日:2023-04-07

    申请号:CN202210487255.X

    申请日:2022-05-06

    Applicant: 湖南大学

    Abstract: 本发明具体公开了一种基于特征解耦的领域泛化和领域自适应血细胞分类方法,所述方法包括以下步骤:S1、搭建深度神经网络血细胞分类模型;S2、构建孪生网络特征解耦模块;S3、预处理源域血细胞图像,并将源域血细胞图像与预处理后的源域血细胞图像一并输入孪生网络特征解耦模块中进行训练;S4、将孪生网络特征解耦模块的两个输出批量归一化处理,并利用KL散度对齐两个输出的风格信息和内容信息,进而通过预定义的分类损失函数进行分类模型优化;S5、对目标域的血细胞测试样本进行预测分类。本发明采用对比学习方法,有效减少了网络模型的训练时间,提高了血细胞图像的分类精度和泛化性能,提升了面对实际复杂条件下血细胞图像的检测性能。

    一种基于重建预训练的肺部医学图像分割方法

    公开(公告)号:CN115690115A

    公开(公告)日:2023-02-03

    申请号:CN202211383092.7

    申请日:2022-11-04

    Applicant: 湖南大学

    Abstract: 一种基于重建预训练的肺部医学图像分割方法,包括:1、构建无标签的肺部医学图像预训练数据集、带标签的肺部医学图像训练样本集和测试样本集;2、构建预训练网络模型,将无标签的肺部医学图像预训练数据集的每张图像进行网格划分并打乱顺序,并利用其对预训练网络模型进行训练;3、构建分割‑重建网络模型,利用训练后的预训练网络模型的权重对分割‑重建网络模型进行参数初始化;4、将带标签的肺部医学图像数据集进行图像增强处理;对分割‑重建网络模型进行优化训练;5、对分割‑重建网络模型进行测试。本发明通过无监督的拼图重建预训练学习特征表示,结合迁移学习的思想,提高了模型的鲁棒性和泛化性,减少了模型训练时间。

    一种用于机器人作业的大模型特征融合哈希自注意力方法

    公开(公告)号:CN119357647B

    公开(公告)日:2025-04-08

    申请号:CN202411945629.3

    申请日:2024-12-27

    Applicant: 湖南大学

    Abstract: 本发明公开了一种用于机器人作业的大模型特征融合哈希自注意力方法,获取目标操作环境下多种复杂操作任务的示教数据;采集操作场景中的多模态信息;构建基于大模型的视觉‑文字精炼及对齐模块,将多模态信息中的声音信号和视觉信号输入,得到最终提取的视觉特征和最终预测的文字特征;采用特征提取器将最终得到的视觉特征和文字特征转换为特征相同的维度,利用设计的哈希交互机器人技能学习模块进行特征交互并进行特征提取,预测相应的机器人的动作;基于示教数据和预设的损失函数对哈希交互机器人技能学习模块进行训练,用于根据实时的视觉和文字输入预测机器人的动作。提高机器人在复杂处理操作环境下的自主学习、技能泛化和精准控制能力。

    一种用于机器人作业的大模型特征融合哈希自注意力方法

    公开(公告)号:CN119357647A

    公开(公告)日:2025-01-24

    申请号:CN202411945629.3

    申请日:2024-12-27

    Applicant: 湖南大学

    Abstract: 本发明公开了一种用于机器人作业的大模型特征融合哈希自注意力方法,获取目标操作环境下多种复杂操作任务的示教数据;采集操作场景中的多模态信息;构建基于大模型的视觉‑文字精炼及对齐模块,将多模态信息中的声音信号和视觉信号输入,得到最终提取的视觉特征和最终预测的文字特征;采用特征提取器将最终得到的视觉特征和文字特征转换为特征相同的维度,利用设计的哈希交互机器人技能学习模块进行特征交互并进行特征提取,预测相应的机器人的动作;基于示教数据和预设的损失函数对哈希交互机器人技能学习模块进行训练,用于根据实时的视觉和文字输入预测机器人的动作。提高机器人在复杂处理操作环境下的自主学习、技能泛化和精准控制能力。

Patent Agency Ranking