彩色眼底图像的血管增强方法

    公开(公告)号:CN109859139B

    公开(公告)日:2022-12-09

    申请号:CN201910117094.3

    申请日:2019-02-15

    Applicant: 中南大学

    Abstract: 本发明公开了一种彩色眼底图像的血管增强方法,包括获取训练数据并处理;将数据输入到生成模型中对生成模型进行训练并得到最终的生成模型;获取待增强的数据并处理;将数据输入最终的生成模型生成血管增强后的彩色眼底图像。本发明通过生成模型的建立,使用深度神经网络学习荧光造影图像的血管成像特征,可以学习到比灰度纹理等等更深层次的信息,使得眼底图的血管增强效果更佳显著,而且通过损失函数的设计,可以有效的使得生成图像和目标图像更加接近;因此,本发明方法能够有效的根据现有的彩色眼底图像生成血管增强后的彩色眼底图像,而且本发明方法的可靠性高、安全性好且适用范围广。

    一种基于Radon域特征表示的青光眼检测方法

    公开(公告)号:CN110378864B

    公开(公告)日:2021-07-16

    申请号:CN201810316983.8

    申请日:2018-04-10

    Abstract: 本发明公开了一种基于Radon域特征表示的青光眼检测方法,包括如下步骤:步骤1:将彩色眼底图转换为灰度图像,并进行灰度图像预处理;步骤2:在n个投影角度下采用Radon变换将预处理后的灰度图像投影到Radon域得到一维离散信号;步骤3:对一维离散信号进行维度统一,并采用双正交小波分解一维离散信号来提取到近似系数和细节系数;步骤4:将每组一维离散信号的近似系数和细节系数组合成样本的特征输入分类检测模型得到青光眼检测结果;分类检测模型训练时的输入参数为青光眼眼底图像样本和正常眼底图像样本构成特征向量矩阵N以及特征向量矩阵N中每行的样本标签向量。本发明通过上述方法可以精确检测出是否为青光眼。

    一种基于Radon域特征表示的青光眼检测方法

    公开(公告)号:CN110378864A

    公开(公告)日:2019-10-25

    申请号:CN201810316983.8

    申请日:2018-04-10

    Abstract: 本发明公开了一种基于Radon域特征表示的青光眼检测方法,包括如下步骤:步骤1:将彩色眼底图转换为灰度图像,并进行灰度图像预处理;步骤2:在n个投影角度下采用Radon变换将预处理后的灰度图像投影到Radon域得到一维离散信号;步骤3:对一维离散信号进行维度统一,并采用双正交小波分解一维离散信号来提取到近似系数和细节系数;步骤4:将每组一维离散信号的近似系数和细节系数组合成样本的特征输入分类检测模型得到青光眼检测结果;分类检测模型训练时的输入参数为青光眼眼底图像样本和正常眼底图像样本构成特征向量矩阵N以及特征向量矩阵N中每行的样本标签向量。本发明通过上述方法可以精确检测出是否为青光眼。

    一种基于可信度和深度学习的视网膜血管分割图生成方法

    公开(公告)号:CN110276763A

    公开(公告)日:2019-09-24

    申请号:CN201810213111.9

    申请日:2018-03-15

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于可信度和深度学习的视网膜血管分割图生成方法,包括:步骤1:获取训练数据,并利用预设的可信度模型和训练数据构建训练集;步骤2:从训练集中选取数据并输入基于卷积神经网络的深度学习模型进行训练得到分类器;步骤3:获取待测图像,并对待测图像进行图像预处理;步骤4:将步骤3中图像预处理后的待测图像输入步骤2中的分类器得到待测图像中像素点位于五类可信度区域的五个预测概率值;步骤5:依据步骤4中待测图像中像素点位于五类可信度区域的预测概率值生成视网膜血管分割图。本发明通过上述方法既能精确分割粗血管,还能精确分割细小血管。

    一种基于可信度和深度学习的视网膜血管分割图生成方法

    公开(公告)号:CN110276763B

    公开(公告)日:2021-05-11

    申请号:CN201810213111.9

    申请日:2018-03-15

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于可信度和深度学习的视网膜血管分割图生成方法,包括:步骤1:获取训练数据,并利用预设的可信度模型和训练数据构建训练集;步骤2:从训练集中选取数据并输入基于卷积神经网络的深度学习模型进行训练得到分类器;步骤3:获取待测图像,并对待测图像进行图像预处理;步骤4:将步骤3中图像预处理后的待测图像输入步骤2中的分类器得到待测图像中像素点位于五类可信度区域的五个预测概率值;步骤5:依据步骤4中待测图像中像素点位于五类可信度区域的预测概率值生成视网膜血管分割图。本发明通过上述方法既能精确分割粗血管,还能精确分割细小血管。

    一种基于B-COSFIRE的眼底图像视网膜血管分割方法

    公开(公告)号:CN108665474B

    公开(公告)日:2021-05-11

    申请号:CN201710209253.3

    申请日:2017-03-31

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于B‑COSFIRE的眼底图像视网膜血管分割方法,首先通过取绿色通道,CLAHE等操作突出血管特征并降低噪声,再用B‑COSFIRE滤波器进行响应滤波,最后通过形态学高帽变换和基于连通域的后处理操作提高分割效果;通过对B‑COSFIRE滤波器的特殊配置,使得B‑COSFIRE滤波器对眼底图像具有准确的响应;该方法对于建立高效可靠的计算机辅助医疗系统具有重要意义,对提升辅助医疗系统的精度及效率,乃至临床诊断,疗效评估及早期病症筛查等提供了更为高效的血管分割基础。

    彩色眼底图像的血管增强方法

    公开(公告)号:CN109859139A

    公开(公告)日:2019-06-07

    申请号:CN201910117094.3

    申请日:2019-02-15

    Applicant: 中南大学

    Abstract: 本发明公开了一种彩色眼底图像的血管增强方法,包括获取训练数据并处理;将数据输入到生成模型中对生成模型进行训练并得到最终的生成模型;获取待增强的数据并处理;将数据输入最终的生成模型生成血管增强后的彩色眼底图像。本发明通过生成模型的建立,使用深度神经网络学习荧光造影图像的血管成像特征,可以学习到比灰度纹理等等更深层次的信息,使得眼底图的血管增强效果更佳显著,而且通过损失函数的设计,可以有效的使得生成图像和目标图像更加接近;因此,本发明方法能够有效的根据现有的彩色眼底图像生成血管增强后的彩色眼底图像,而且本发明方法的可靠性高、安全性好且适用范围广。

    一种基于B-COSFIRE的眼底图像视网膜血管分割方法

    公开(公告)号:CN108665474A

    公开(公告)日:2018-10-16

    申请号:CN201710209253.3

    申请日:2017-03-31

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于B-COSFIRE的眼底图像视网膜血管分割方法,首先通过取绿色通道,CLAHE等操作突出血管特征并降低噪声,再用B-COSFIRE滤波器进行响应滤波,最后通过形态学高帽变换和基于连通域的后处理操作提高分割效果;通过对B-COSFIRE滤波器的特殊配置,使得B-COSFIRE滤波器对眼底图像具有准确的响应;该方法对于建立高效可靠的计算机辅助医疗系统具有重要意义,对提升辅助医疗系统的精度及效率,乃至临床诊断,疗效评估及早期病症筛查等提供了更为高效的血管分割基础。

    一种基于ELM的眼底图像视网膜血管分割方法

    公开(公告)号:CN106934816A

    公开(公告)日:2017-07-07

    申请号:CN201710176358.3

    申请日:2017-03-23

    Applicant: 中南大学

    CPC classification number: G06K9/6268 G06N3/04

    Abstract: 本发明公开了一种基于ELM的眼底图像视网膜血管分割方法,该方法通过为眼底图中的每个像素点构造一个包括Hessian矩阵特征,局部特征,梯度场特征和形态学特征在内的39维特征向量,用以判定每个像素是否属于血管上的像素。利用训练样本对ELM进行训练得到分类器,并由此完成待测试图像上的各个像素点的分类判定,得到最后的分割结果。该方法训练时间短,对待测眼底图像分割速度较快速度较快,并且对血管主干部分提取较好,对于高亮度病灶区的处理很有优势,适合进行后期处理,为主要血管的病变提供了直观结果,适用于眼底图像的计算机辅助定量分析和疾病诊断,对相关疾病的辅助诊断有明显临床意义。

Patent Agency Ranking