-
公开(公告)号:CN114387437B
公开(公告)日:2024-12-24
申请号:CN202210029904.1
申请日:2022-01-12
Applicant: 福建农林大学
IPC: G06V10/25 , G06V10/26 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/045 , G06N3/08
Abstract: 本发明涉及一种基于多注意力U‑Net全卷积网络的视网膜图像视盘提取方法,包括以下步骤:步骤S1:获取原始彩色视网膜图像,并采用最亮点提取及区域模糊最亮区域的方法进行感兴趣区域提取;步骤S2:根据提取的感兴趣区域图像,采用RGB通道分离,并对分离后的红色通道图像进行直方图均衡化和标准化处理;步骤S3:将红色通道图像,直方图均衡化图图像和标准化图像进行通道融合产生新的三通道图像;步骤S4:基于多注意力U‑Net全卷积网络,构建并训练视网膜图像视盘分割模型;步骤S5将将通道融合后的图像数据输入视网膜视盘分割模型进行视网膜图像视盘提取分割。本发明实现了视网膜图像视盘的高精度提取分割。
-
公开(公告)号:CN117853713A
公开(公告)日:2024-04-09
申请号:CN202410094607.4
申请日:2024-01-23
Applicant: 福建农林大学
IPC: G06V10/25 , G06V10/80 , G06V10/44 , G06V10/42 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/045 , G06N3/0495 , G06N3/082 , G06N3/084 , G06N3/0985
Abstract: 本发明提出了一种基于通道剪枝和通道信息融合的实时目标检测方法,包括一种新的通道剪枝方法,在保证检测精度的同时,有效地减少了目标检测网络的冗余参数和计算复杂度;以及一种新的轻量级卷积CIMConv,利用更简单的卷积操作实现更高的精度,并降低标准卷积的复杂度。本发明将提出的两种优化策略应用于现有的目标检测器,在精度和复杂度之间实现了更好的平衡,超过了最先进的检测器。在具有挑战性的公共数据集上,本发明提出的通道剪枝和CIMConv方法大大减少了网络的参数量和计算量,同时提高了检测精度。
-
公开(公告)号:CN114387437A
公开(公告)日:2022-04-22
申请号:CN202210029904.1
申请日:2022-01-12
Applicant: 福建农林大学
IPC: G06V10/25 , G06V10/26 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于多注意力U‑Net全卷积网络的视网膜图像视盘提取方法,包括以下步骤:步骤S1:获取原始彩色视网膜图像,并采用最亮点提取及区域模糊最亮区域的方法进行感兴趣区域提取;步骤S2:根据提取的感兴趣区域图像,采用RGB通道分离,并对分离后的红色通道图像进行直方图均衡化和标准化处理;步骤S3:将红色通道图像,直方图均衡化图图像和标准化图像进行通道融合产生新的三通道图像;步骤S4:基于多注意力U‑Net全卷积网络,构建并训练视网膜图像视盘分割模型;步骤S5将将通道融合后的图像数据输入视网膜视盘分割模型进行视网膜图像视盘提取分割。本发明实现了视网膜图像视盘的高精度提取分割。
-
公开(公告)号:CN110111285B
公开(公告)日:2021-06-01
申请号:CN201910400460.6
申请日:2019-05-14
Applicant: 福建农林大学 , 福建医科大学附属第一医院
Abstract: 本发明涉及一种基于二阶锥规划的腔内动脉支架动力特性评价方法,包括以下步骤:步骤S1:进行动脉支架标记自动检测;步骤S2:进行动脉支架标记匹配;步骤S3:基于二阶锥规划方法对动脉支架标记进行三维重建;步骤S4:对动脉支架进行动力特性评价。本发明通过系统、严谨的分析来研究腔内支架三维运动特性,建立腔内支架机械动力特性模型,获取腔内支架动力特性评价,以期能早期发现支架本身的缺陷和故障。
-
公开(公告)号:CN112489098A
公开(公告)日:2021-03-12
申请号:CN202011461803.9
申请日:2020-12-09
Applicant: 福建农林大学
Abstract: 本发明涉及一种基于空间通道注意力机制神经网络的图像匹配方法。该方法包括步骤:步骤1:根据SIFT方法得到初始匹配集合c;步骤2:通过改进的OANet网络对输入数据进行处理从而得到匹配对为正确匹配的概率;步骤3:对步骤2得到的结果通过加权8点算法进行计算得到本质矩阵;步骤4,根据本质矩阵信息得到准确的相机姿态(旋转和平移)。本发明的网络能够有效地剔除异常值(离群点),同时估计成图像对的相机姿态。本发明的一种基于空间通道注意力机制神经网络的图像匹配方法在mAP5°方法取得很大的提升。
-
公开(公告)号:CN114398972B
公开(公告)日:2025-01-21
申请号:CN202210018929.1
申请日:2022-01-07
Applicant: 福建农林大学
IPC: G06V10/75 , G06N3/047 , G06N3/048 , G06N3/045 , G06N3/08 , G06V10/74 , G06V10/762 , G06V10/46 , G06V10/82
Abstract: 本发明涉及一种基于联合表示注意力机制的深度学习图像匹配方法。包括以下步骤:步骤1、使用SIFT算法和NN匹配算法建立初始匹配集;步骤2、利用改进的网络JRA‑Net进行误匹配剔除,得到匹配为内点的概率集;步骤3、将步骤2输出的概率集视为权重集,利用加权8点算法估计本质矩阵;步骤4、通过本质矩阵回归准确的相对姿态(旋转和平移)。本方法通过联合表示注意力机制的相关理论知识以及在室内外公开数据集上的大量实验说明了本方法具有高精度,高效率和高鲁棒性的特点,可广泛应用于三维重建,遥感图像拼接、即时定位与地图构建等计算机视觉任务中。
-
公开(公告)号:CN112085745B
公开(公告)日:2024-10-18
申请号:CN202010931829.9
申请日:2020-09-07
Applicant: 福建农林大学
IPC: G06T7/11 , G06T7/194 , G06T5/40 , G06N3/0464 , G06N3/084
Abstract: 本发明提出一种基于均衡采样拼接的多通道U型全卷积神经网络的视网膜血管图像分割方法,包括以下步骤:步骤S1:对原始彩色视网膜图像采用三通道直方图均衡化并结合特性值伽马矫正进行预处理;步骤S2:构建多尺度均衡化划分采样点后进行图像块随机拼接扩充数据样本;步骤S3:将图像数据归一化;步骤S4:将归一化后的图像数据输入视网膜血管分割模型进行视网膜血管网络分割;所述视网膜血管分割模型由训练集产生的归一化后的图像数据通过对色彩敏感的三通道U‑Net全卷积网络进行训练获得。其在精度,灵敏度,以及特异性以及AUC上有较大优势。
-
公开(公告)号:CN117437558A
公开(公告)日:2024-01-23
申请号:CN202311285175.7
申请日:2023-10-07
Applicant: 宁夏农林科学院农作物研究所(宁夏回族自治区农作物育种中心) , 福建农林大学
IPC: G06V20/17 , G06V10/82 , G06N3/0464 , G06V20/10 , G06V10/774
Abstract: 本发明公开一种基于无人机RGB影像的稻穗计数和产量分级方法及系统,涉及图像处理领域,该方法包括利用无人机搭载数码相机获取水稻小区的稻穗RGB图像,并构建稻穗无人机RGB图像的数据集;基于改进的YOLOv5网络构建Panicle‑AI模型;利用稻穗无人机RGB图像的数据集训练Panicle‑AI模型;利用训练好的Panicle‑AI模型计算灌浆前期水稻小区的稻穗数量;根据稻穗数量、千粒重以及每穗粒数,采用机器学习交叉验证预测产量等级。本发明能够准确地实现稻穗计数,进而实现水稻产量等级的有效估计。
-
公开(公告)号:CN108921871B
公开(公告)日:2022-02-01
申请号:CN201810610626.2
申请日:2018-07-27
Applicant: 福建农林大学
IPC: G06T7/231
Abstract: 本发明公开一种基于全局贪婪搜索的鲁棒模型拟合方法,具体为:设置数据集,初始化参数;使用label来获取类标为m的第m个模型实例的内点;根据全局贪婪搜索的采样方法在及输入数据上生成模型假设或根据HMSS的采样方法在label中类标为0的数据上生成模型假设;根据模型假设及label来获得新的label;融合最近生成的个模型假设来得到模型假设,然后用模型假设来获得新的label;输出已生成的个模型假设,并根据输出已生成的个模型假设,对图像进行分割,完成模型拟合。本发明从内点中选取数据子集来生成更准确的初始模型假设,可应用于单应性矩阵估计、基本矩阵估计、两视图平面分割和运动分割等计算机视觉任务。
-
公开(公告)号:CN112529879A
公开(公告)日:2021-03-19
申请号:CN202011483383.4
申请日:2020-12-16
Applicant: 福建农林大学
Abstract: 本发明提出一种基于支持向量机的B‑COSFIRE滤波处理的多尺度采样视网膜血管图像分割方法,包括以下步骤:步骤S1:提取视网膜图像的绿色通道部分并对图像进行翻转处理;步骤S2:通过B‑COSFIRE滤波对翻转后的图像进行滤波增强处理;步骤S3:对滤波处理后的图像采用不同尺度的线检测算子进行血管特征的提取;步骤S4:构建基于提取多尺度的血管特征与滤波图像块的特征向量作为支持向量机模型训练的输入;步骤S5:利用支持向量机模型训练获得的分类器实现视网膜血管预测与分割。
-
-
-
-
-
-
-
-
-