-
公开(公告)号:CN118134898A
公开(公告)日:2024-06-04
申请号:CN202410396643.6
申请日:2024-04-03
Applicant: 杭州电子科技大学
IPC: G06T7/00 , G06T7/10 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种全局融合的双通道视网膜血管分割方法,该方法首先获取视网膜血管图像数据集,对原始图片和标签预处理。其次将预处理后的图片重采样为多个不同尺寸的图片。然后将重采样后的多个不同尺寸的图片,分多阶段分别输入到并行的细小血管增强网络和分割网络中,得到网膜血管分割结果图。最后设计损失函数,将网膜血管分割结果图与标签计算损失,进行训练,并测试。本发明可以有效的分割视网膜血管并取得了与常见视网膜血管分割网络更好的准确率和敏感性。
-
公开(公告)号:CN117437412A
公开(公告)日:2024-01-23
申请号:CN202311276394.9
申请日:2023-09-27
Applicant: 杭州电子科技大学
IPC: G06V10/26 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及基于多视角编码器和注意力机制的脊柱侧弯CT分割方法,采用了多视角编码器的方法,对不同视角的CT图像进行特征提取,以提取更完整的三维脊柱结构特征,并采用Transformer注意力机制对所提取的特征进行长程依赖关系和全局信息的学习,在U‑Net模型的基础上,构建了多视角编码器同时还引入了注意力机制,构建基于多视角编码和注意力机制的改进U‑Net网络;对构建的所述基于多视角编码和注意力机制的改进U‑Net网络进行训练,得到所需分割网络;本发明方法结合多视角编码和注意力机制,与U‑Net网络相比,能够提取更完整的三维结构特征,提高分割的准确性和鲁棒性。
-
公开(公告)号:CN118154870A
公开(公告)日:2024-06-07
申请号:CN202410283675.5
申请日:2024-03-13
Applicant: 杭州电子科技大学
IPC: G06V10/26 , G06V10/25 , G06V10/44 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/0464
Abstract: 本发明公开了一种基于深度学习的两阶段AIS脊柱CT图像多标签分割方法,该方法首先获取AIS脊柱图片数据集,对数据集中的图片进行预处理,并创建椎骨定位的新标签。其次对预处理后图片和新标签进行处理,训练椎骨定位的卷积神经网络。然后使用训练后的卷积神经网络测试预处理后的图片,对测试结果再进行后处理,得到脊柱图像中椎骨质心的预测结果,并对预处理后原始图片和标签进行再处理,训练构建的分割网络。最后根据椎骨定位过程中预测到的椎骨质心位置创建感兴趣区域,使用训练好的分割网络在感兴趣区域中分割目标椎骨,再整合得到多标签分割结果。本发明可以有效分割椎骨。
-
公开(公告)号:CN118552728A
公开(公告)日:2024-08-27
申请号:CN202410666690.8
申请日:2024-05-28
Applicant: 杭州电子科技大学
IPC: G06V10/26 , G06V10/774 , G06V10/776 , G06N3/0464 , G06N3/0455 , G06N3/082 , G06V10/82
Abstract: 本发明公开了一种基于多池化融合与边界感知的深度学习皮肤病变分割方法,该方法首先获取皮肤病变图像数据集,对其中皮肤图片进行预处理,并创建用于皮肤病变边缘检测的边界标签。其次对预处理后的图片、原始标签和边界标签转化为同一规格,进行数据集划分。然后在deeplabV3+的基础上进行改进,构建分割网络,使用训练集进行训练,得到分割结果。最后对每轮经过训练集训练得到的模型使用验证集进行验证,得到最佳训练模型,并在皮肤病变图像测试集中分割皮肤图像进行测试。本发明可以提取全局和局部特征信息,并有效捕获重要的皮肤边界信息,以提高分割的精度。
-
-
-