-
公开(公告)号:CN117975278A
公开(公告)日:2024-05-03
申请号:CN202410232018.8
申请日:2024-03-01
Applicant: 安徽大学
IPC: G06V20/10 , G06V10/20 , G06V10/774 , G06V10/776 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明涉及一种基于改进YOLOv8模型的害虫检测识别方法,包括:获取病虫害数据并进行预处理,得到病虫害数据集;对YOLOv8模型进行改进,在YOLOv8模型的Neck层的拼接模块后加入空间注意力模块,将YOLOv8模型的主干网络中的一个卷积层替换为SwimTransformer模块,将YOLOv8模型的损失函数替换为SIoU,得到害虫检测识别模型;采用训练集对害虫检测识别模型进行训练;获取待识别的害虫图像,将待识别的害虫图像输入训练后的害虫检测识别模型,得到检测识别结果。为了提高对害虫检测识别的精度,本发明对原始的YOLOv8模型做出了以下改进,增强了对细粒度特征的提取,极大的提高了对害虫的检测识别精度。
-
公开(公告)号:CN117649364A
公开(公告)日:2024-03-05
申请号:CN202410126237.8
申请日:2024-01-30
Applicant: 安徽大学
IPC: G06T5/73 , G06T5/60 , G06N3/045 , G06N3/0464 , G06N3/0475 , G06N3/048 , G06N3/094
Abstract: 本发明公开了一种基于改进DeblurGANv2模型的真菌孢子显微图像去模糊方法及装置,该方法包括:获取真菌孢子显微图像数据集;基于改进DeblurGANv2模型构建真菌孢子显微图像去模糊网络模型,所述改进DeblurGANv2模型包括在FPN网络中融入CBAM注意力模块并增加一条自底向上的5层特征增强路径;将真菌孢子显微图像数据集输入真菌孢子显微图像去模糊网络模型对生成器和判别器进行训练,得到训练完成的真菌孢子显微图像去模糊网络模型;基于训练完成的去模糊网络模型中的生成器对待处理的模糊真菌孢子显微图像进行去模糊。本发明有效提高了真菌孢子显微图像去模糊后的图像质量。
-
公开(公告)号:CN117576467A
公开(公告)日:2024-02-20
申请号:CN202311560242.1
申请日:2023-11-22
Applicant: 安徽大学
IPC: G06V10/764 , G06V10/20 , G06V10/82 , G06V10/44 , G06V10/56 , G06V10/77 , G06N3/0464 , G06N3/047 , G06N3/0455 , G06V10/80 , G06N3/08 , G06N3/045
Abstract: 本发明涉及一种融合频率域和空间域信息的农作物病害图像识别方法,与现有技术相比解决了难以在复杂环境下实现农作物病害检测的缺陷。本发明包括以下步骤:农作物病害图像的获取及预处理;双分支病害图像识别模型的构建;双分支病害图像识别模型的训练;待识别农作物病害图像的获取;农作物病害图像识别结果的获得。本发明结合图像频率域信息与空间域信息提出了双分支的深度神经网络用于农作物病害识别,频率分支接受频域信息作为输入用于提取丰富的农作物病害频率分量特征,可变形注意力Transformer分支擅长于表征全局特征并且有选择的关注农作物病害局部区域特征,融合方法MSAF更好的融合农作物病害频率特征和空间特征。
-
公开(公告)号:CN117218537B
公开(公告)日:2024-02-13
申请号:CN202311178242.5
申请日:2023-09-13
Applicant: 安徽大学
IPC: G06V20/10 , G06V10/764 , G06V10/42 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于Transformer和非局部神经网络双分支架构的高光谱图像分类方法,包括:输入高光谱图像H;对输入的高光谱图像H进行双分支处理:将多个立方块Hsp作为空间子网络的输入,取H的光谱信息Hspe作为光谱子网络的输入;得到一维空间特征;得到一维光谱特征;构建多层感知器模块将提取的一维空间特征和一维光谱特征进行融合,得到分类结果。本发明通过对高光谱图像作为研究对象,用双分支策略以在充分保持计算效率的同时减少计算量和节约成本;本发明所提出的空间注意力机制探索中心像素和周围像素的相似性,提高了中心像素识别的准确性,增强了空间提取能力。
-
公开(公告)号:CN117333918A
公开(公告)日:2024-01-02
申请号:CN202311270068.7
申请日:2023-09-28
Applicant: 安徽大学
IPC: G06V40/16 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于集成卷积网络的人脸表情识别方法,包括:获取原始图像数据;对获取的原始图像数据进行预处理,得到训练集和测试集;构建集成卷积网络模型:集成卷积网络模型由共享卷积层和集成卷积分支两部分组成;对集成卷积网络模型进行训练;将待识别的人脸表情图像输入到训练后的集成卷积网络模型中,训练后的集成卷积网络模型输出最终的识别结果,即人脸表情对应的分类标签。本发明还公开了基于集成卷积网络的人脸表情识别系统。本发明减少冗余和计算负载,同时保持多样性和泛化能力,通过共享卷积层自动提取人脸图像特征,捕捉微妙表情差异,显著提升识别准确度;有效地克服了传统方法的限制,提高了人脸表情识别的效率和准确性。
-
公开(公告)号:CN117333784A
公开(公告)日:2024-01-02
申请号:CN202311270611.3
申请日:2023-09-28
Applicant: 安徽大学
IPC: G06V20/17 , G06V20/10 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06V10/25 , G06V10/52 , G06N3/0464 , G06N3/09
Abstract: 本发明涉及一种基于无人机图像的小麦赤霉病病情指数估计方法,包括:获取无人机遥感小麦图像;按比例划分,分别得到训练集、验证集、测试集;进行重叠裁剪;进行光照拉伸处理;进行麦穗的旋转框标注,得到标签,带标签的拉伸后的训练集、验证集和测试集为最终训练集、最终测试集和最终验证集;构建旋转框目标检测网络模型,进行训练;将最终测试集输入至训练完成的旋转框目标检测网络模型,完成无人机遥感图像中赤霉病的检测并实现病情指数估计。本发明可以更加精确的检测出无人机遥感图像中麦穗的边界,减少不必要复杂背景区域,提高赤霉病严重度识别的准确性,从而实现麦穗病情指数的精确估计。
-
公开(公告)号:CN117315459A
公开(公告)日:2023-12-29
申请号:CN202311177199.0
申请日:2023-09-12
Applicant: 安徽大学
IPC: G06V20/10 , G06V10/774 , G06V10/764 , G06V10/77 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种轻量型卷积神经网络的水稻叶片病害识别方法,与现有技术相比解决了水稻叶片病害识别模型识别效率低的缺陷。本发明包括以下步骤:训练样本的获取;构建水稻叶片病害识别模型;水稻叶片病害识别模型的训练;待识别水稻叶片的获取;水稻叶片病害识别结果的获得。本发明能够实现复杂背景下的水稻病害识别,通过模型的轻量化设计使得其可以加载在移动设备上,方便在野外自然场景中自动水稻叶部病害种类,解决了复杂环境、参数多、CNN模型过大等问题。
-
公开(公告)号:CN117152735A
公开(公告)日:2023-12-01
申请号:CN202311119458.4
申请日:2023-09-01
Applicant: 安徽大学
IPC: G06V20/68 , G06V10/774 , G06V10/776 , G06V10/44 , G06V10/52 , G06V10/80 , G06V10/25 , G06V10/764 , G06V10/26 , G06V10/82 , G06N3/0464 , G06N3/045 , G06N3/08
Abstract: 本发明涉及一种基于改进yolov5s的番茄成熟度分级方法,包括:获取图像;进行图像预处理,得到训练集、测试集和验证集;对yolov5s模型进行改进;采用训练集对改进后的yolov5s模型进行训练,得到训练好的yolov5s模型;采用测试集对训练好的yolov5s模型进行测试,利用测试集中的图片进行定性以及定量的相关指标的评估;将待分级的番茄图片输入训练好的yolov5s模型,训练好的yolov5s模型识别出成熟的番茄。本发明用高像素相机获取成熟番茄图像,将深度学习技术中的全卷积图像分割网络应用到番茄智能采摘中,根据实际使用场景对网络结构进行调整,利用采集的番茄图像数据集训练卷积神经网络,最终使网络能够自动检测成熟番茄。
-
公开(公告)号:CN117063903A
公开(公告)日:2023-11-17
申请号:CN202311223649.5
申请日:2023-09-21
Applicant: 安徽大学
IPC: A01M1/04 , A01M1/20 , G06V10/764 , G06V10/774
Abstract: 本发明涉及一种大型虫情监测回收方法,包括下列顺序的步骤:打开黑光引虫灯管和加热仓的上仓门,吸引虫子来到加热仓;关闭加热仓的上仓门和下仓门,执行加热杀虫工作,杀死虫子后,打开下仓门,加热烘干的虫子落到圆盘上摆放;位于圆盘正上方的相机对圆盘上的虫子进行拍照;拍摄的照片分别存储本地和上传云端进行识别,通过基于深度学习的图像识别模型,对图片内容进行依次识别;启动电刷对圆盘上的害虫进行清扫和回收。本发明还公开了一种大型虫情监测回收装置。本发明基于硬件、软件、电子、网络实现了自动化、智能化的虫情测报设备,为农业、林业等各个领域提供虫情的监测功能;实现软硬件的自动化,这使得虫情测报灯的工作更高效。
-
公开(公告)号:CN111462223B
公开(公告)日:2023-05-26
申请号:CN202010321528.4
申请日:2020-04-22
Applicant: 安徽大学
IPC: G06T7/62 , G06N3/0442 , G06N3/0464 , G06N3/084 , G06V10/764
Abstract: 本发明特别涉及一种基于Sentinel‑2影像的江淮地区大豆和玉米种植面积识别方法,包括如下步骤:A、获取Sentinel‑2卫星拍摄的待测区域卫星图像并进行预处理;B、采用JM距离计算土地覆盖类型之间的可分离性,选择最佳分类时相的图像;C、通过分类算法对目标区图像中的像素点进行分类;D、根据被分类为大豆/玉米的像素点数量计算得到大豆/玉米的种植面积。本发明利用具有较高时空分辨率的Sentinel‑2影像数据,结合相关分类算法,可以很好地实现江淮地区大豆和玉米的识别。采用这些步骤,可以在大豆和玉米收获之前,以相对快速和低成本的方式,在种植结构破碎的主产区对大豆和玉米进行识别并制图,获得相对可靠的大豆和玉米的空间分布结果,从而为种植结构复杂和气候多变地区的大豆和玉米种植面积提取提供技术支持。
-
-
-
-
-
-
-
-
-