-
公开(公告)号:CN116503605A
公开(公告)日:2023-07-28
申请号:CN202310639579.5
申请日:2023-06-01
Applicant: 南京大学
IPC: G06V10/26 , G06V10/82 , G06V10/762 , G06V10/764 , G06V40/14 , G06N3/045 , G06N3/047 , G06N3/048 , G06N3/0895
Abstract: 本发明公开了一种基于迭代主干生长和弱监督学习的胰周血管分割标记方法,发明的核心是设计了一个迭代主干生长机制和一个基于弱监督学习的标记框架。迭代主干生长机制包括一系列可迭代的主干生长模块,每个模块通过对胰周血管的基本分割结果施加连通性约束和分支提议网络使其能在保证连通性的基础上逐渐生长得更加完整;基于弱监督学习的标记框架首先使用一个基于解剖规则的标记算法生成血管分支类别的伪标签,然后训练一个标记网络来学习血管分支的分布特征,最后使用一个自适应的后处理模块来修正血管的结构。本发明不仅可以得到更加完整且完全连通的胰周血管分割结果,而且可以使用更少的人工成本获得与全监督标记方法相当的胰周血管标记精度。
-
公开(公告)号:CN119832335A
公开(公告)日:2025-04-15
申请号:CN202510042716.6
申请日:2025-01-10
Applicant: 南京大学
IPC: G06V10/764 , G06T7/00 , G06T7/60 , G06V10/774 , G06V10/82 , G06N3/0464 , G06V10/766 , G06V10/26
Abstract: 本发明提供了一种眼底超声视频最优帧检测与视神经鞘宽度测量的全自动方法。首先,训练一个在眼底超声图像中自动分割眼球和视神经鞘的深度网络模型。然后,对每一个眼底超声视频中的每一帧图像进行分割,设计一个眼底超声图像评分模型对每一帧超声图像进行评分,输出每一个眼底超声视频中得分最高的五张图像作为最优帧集。最后,根据眼球和视神经鞘的分割结果设计基于中心线的算法自动计算眼球下3毫米处的视神经鞘宽度,并以最优帧图像中视神经鞘宽度的修剪平均值作为眼底视神经鞘的宽度测量值。本发明能够在仅输入眼底超声视频的情况下,实现眼球和视神经鞘两个要素的自动分割、最优帧的自动选取和视神经鞘宽度的自动测量。
-
公开(公告)号:CN119444898A
公开(公告)日:2025-02-14
申请号:CN202411501270.0
申请日:2024-10-25
Applicant: 南京大学
IPC: G06T11/00 , G06T3/04 , G16H30/40 , G06N3/0464 , G06N3/094
Abstract: 本发明提出一种一种全身PET与CT图像相互转换的人工智能方法,使用增强型条件生成对抗网络(cGAN)模型实现了全身CT与PET图像之间的模态转换。该方法结合了残差卷积块和全卷积Transformer块,以提高模型捕捉局部特征和全局上下文信息的能力。本申请设计了一个定制的损失函数,结合结构一致性损失,能够提升生成图像的整体质量。在CT‑>PET和PET‑>CT两个模态转换任务上进行了大量实验,结果表明,本申请的模型能够生成高质量的图像,在临床相关性和诊断价值方面均接近原始图像。本发明所提出的结合Transformer的cGAN框架能够减少多模态图像检查的需求,从而降低患者的辐射暴露剂量和整体医疗成本,为PET‑CT多模态图像转换的临床应用奠定了坚实的基础。
-
公开(公告)号:CN116503605B
公开(公告)日:2023-10-13
申请号:CN202310639579.5
申请日:2023-06-01
Applicant: 南京大学
IPC: G06V10/26 , G06V10/82 , G06V10/762 , G06V10/764 , G06V40/14 , G06N3/045 , G06N3/047 , G06N3/048 , G06N3/0895
Abstract: 本发明公开了一种基于迭代主干生长和弱监督学习的胰周血管分割标记方法,发明的核心是设计了一个迭代主干生长机制和一个基于弱监督学习的标记框架。迭代主干生长机制包括一系列可迭代的主干生长模块,每个模块通过对胰周血管的基本分割结果施加连通性约束和分支提议网络使其能在保证连通性的基础上逐渐生长得更加完整;基于弱监督学习的标记框架首先使用一个基于解剖规则的标记算法生成血管分支类别的伪标签,然后训练一个标记网络来学习血管分支的分布特征,最后使用一个自适应的后处理模块来修正血管的结构。本发明不仅可以得到更加完整且完全连通的胰周血管分割结果,而且可以使用更少的人工成本获得与全监督标记方法相当的胰周血管标记精度。
-
公开(公告)号:CN119359750A
公开(公告)日:2025-01-24
申请号:CN202411402832.6
申请日:2024-10-09
Applicant: 南京玻璃纤维研究设计院有限公司 , 中材科技股份有限公司 , 南京大学
IPC: G06T7/12 , G06T7/13 , G06V10/26 , G06V10/774 , G06V10/82
Abstract: 本发明提出了一种全自动三维机织复合材料CT图像分割与重建的方法。该方法重新设计了三维机织复合材料图像的纱线分割任务,通过结合基于语义分割的技术与基于梯度流的实例分割技术,能够在低对比度的CT图像上对粘连纱线的边界进行精准分割。最终,测试结果表明,本发明方法能够有效分割形状和大小各异的纱线,在分割样本中实现了边界清晰的纱线分割,显著提升了纱线分割的可靠性。
-
公开(公告)号:CN117788489A
公开(公告)日:2024-03-29
申请号:CN202410017771.5
申请日:2024-01-05
Applicant: 南京大学
IPC: G06T7/11 , G06T3/06 , G06T3/08 , G06N3/0475 , G06N3/088
Abstract: 本发明针对目前大多数X射线图像(CXR)中的肋骨分割方法需要大量准确标记的数据进行深度网络训练,且在X射线图像中实现精确的肋骨标注十分困难的问题,重新设计了胸部X射线图像的肋骨分割任务,提出了一种基于无监督领域适应和中心线损失函数的简洁高效的跨模态方法,利用由三维CT图像生成的二维数字重建放射学图像(DRR)和对应的肋骨标注来指导未标注的二维胸部X射线图像的肋骨分割。与已有的多个X射线图像肋骨分割方法相比,本发明的方法无需在X射线图像上进行任何肋骨标注,在测试样本上实现了更高的Dice分数,避免了因分割方法引起的肋骨断裂问题,分割结果高度可解释并且肋骨的连通性完整性更好。
-
公开(公告)号:CN118015358B
公开(公告)日:2024-08-20
申请号:CN202410158376.9
申请日:2024-02-04
Applicant: 南京大学
IPC: G06V10/764 , G06V10/82 , G06V10/774 , G06V10/40 , G06N3/088 , G06N3/0464 , G06V10/26
Abstract: 本发明的目的是在资源有限的环境中,开发一种肺结核(TB)诊断模型。收集了数百张CXR和CT图像,涵盖三种类型的肺部状况:正常、TB和其他肺病。所有CT图像在训练过程中用作带标签的源域,而CXR图像作为无标签的目标域。基本思想是利用三维CT图像的标签信息来训练二维CXR图像诊断模型。首先,通过简单投影从带标签的三维CT图像获得二维数字重建X射线(DRR)图像,并保留标签信息。然后,构建一个用于CXR图像中TB诊断的深度网络。该网络在深度域适应框架下以无监督的方式进行训练,带标签的DRR图像作为源域,未标记的CXR图像作为目标域。模型在CXR测试集中实现了78.26%的TB诊断准确率,以5.79%到13.77%的提升幅度超过现有的无监督域适应模型,显著性p值低于0.001。
-
公开(公告)号:CN118015358A
公开(公告)日:2024-05-10
申请号:CN202410158376.9
申请日:2024-02-04
Applicant: 南京大学
IPC: G06V10/764 , G06V10/82 , G06V10/774 , G06V10/40 , G06N3/088 , G06N3/0464 , G06V10/26
Abstract: 本发明的目的是在资源有限的环境中,开发一种肺结核(TB)诊断模型。收集了数百张CXR和CT图像,涵盖三种类型的肺部状况:正常、TB和其他肺病。所有CT图像在训练过程中用作带标签的源域,而CXR图像作为无标签的目标域。基本思想是利用三维CT图像的标签信息来训练二维CXR图像诊断模型。首先,通过简单投影从带标签的三维CT图像获得二维数字重建X射线(DRR)图像,并保留标签信息。然后,构建一个用于CXR图像中TB诊断的深度网络。该网络在深度域适应框架下以无监督的方式进行训练,带标签的DRR图像作为源域,未标记的CXR图像作为目标域。模型在CXR测试集中实现了78.26%的TB诊断准确率,以5.79%到13.77%的提升幅度超过现有的无监督域适应模型,显著性p值低于0.001。
-
公开(公告)号:CN119832010A
公开(公告)日:2025-04-15
申请号:CN202510010071.8
申请日:2025-01-03
Applicant: 南京大学
Abstract: 本发明公开了一种基于单点标注的医学图像弱监督变分分割方法,涉及医学图像中肿瘤分割技术领域。首先在目标肿瘤区域内随机地取一个点,根据整个CT图像的纹理方向信息、边界处灰度的局部方向信息和灰度的异质性构建一个新的各向异性的黎曼度量。其次计算整个CT图像中所有点到肿瘤区域内所取点的两种距离:基于新的黎曼度量的测地距离和欧氏距离。随后,将这两种逐点的距离信息嵌入到Chan‑Vese模型中。最后证明了模型解的存在性和唯一性,并采用Douglas‑Rachford算法对其进行求解,得到最终肿瘤的分割结果。本发明可以得到更精确、更有效、更鲁棒的分割结果,可用于肿瘤检测、定位和分割,还可以大大减少人工标注的工作量,具有较高的临床应用价值。
-
公开(公告)号:CN119338865A
公开(公告)日:2025-01-21
申请号:CN202411485382.1
申请日:2024-10-23
Applicant: 南京大学
Abstract: 本发明公开一种基于稀疏先验的非刚性图像配准方法,包括以下步骤:构建浮动图像与固定图像之间的位移场的有界形变函数,将位移场的形变函数作为变分模型的正则项;按照配准后图像与固定图像之间灰度差的稀疏性特点,采用L0范数的数据项,建立稀疏图像配准模型;进一步采用Lp拟范数进行稀疏逼近,近似为Lp稀疏图像配准模型;利用原始对偶迭代加权算法求解配准模型,得到配准结果。本发明对噪声的鲁棒性更强,从而得到更有效的配准结果。
-
-
-
-
-
-
-
-
-