-
公开(公告)号:CN116012839A
公开(公告)日:2023-04-25
申请号:CN202310073803.9
申请日:2023-01-18
Applicant: 福州大学
IPC: G06V20/69 , G06V10/778 , G06V10/774 , G06V10/22 , G06V10/72 , G06V10/82 , G06N3/0464 , G06N3/047 , G06N3/048 , G06N3/084
Abstract: 本发明涉及一种基于多光子肿瘤相关胶原特征的乳腺癌切缘识别方法,包括:获取乳腺癌多光子图像;根据乳腺癌多光子图像中的肿瘤相关胶原特征,在乳腺癌多光子图像中采集设定数量的图像块,对其进行数据清洗和数据预处理,构造训练数据集;构建组织成分识别模块并用其学习训练数据集中的特征信息;根据乳腺组织病理特点和临床肿瘤切除原则,构建组织成分可视化模块,显示组织成分识别结果;对给定的乳腺癌多光子图像进行从局部到整体的识别,以滑动窗口的方式重叠地将图像块输入到组织成分识别模块,输出组织成分类别;最后将所有的组织成分识别结果整合,形成最终的切缘识别结果。该方法有利于快速、自动地识别切除范围和乳腺癌切缘位置。
-
公开(公告)号:CN117994365A
公开(公告)日:2024-05-07
申请号:CN202410169186.7
申请日:2024-02-06
IPC: G06T7/90 , G06N3/0475 , G06N3/045 , G06N3/094 , G06N3/0464 , G06N3/09 , G16H30/00
Abstract: 本发明涉及一种基于伴随监督网络的胶原纤维双重虚拟染色图像生成方法。包括:构建H&E染色、组织化学网状纤维染色、二次谐波胶原纤维图像数据集;将上述两种胶原纤维图像进行色彩强度翻转;设计循环生成对抗网络1,输入H&E图像,输出强度颠倒的上述两种胶原纤维图像;设计循环生成对抗网络2,输入H&E图像,输出无强度颠倒的两种胶原纤维图像;将网络1生成的虚拟图像进行色彩强度再翻转,并用来约束网络2的输出;网络1和网络2同时进行训练,构建了伴随监督模型;获得伴随监督网络2输出的双重虚拟胶原纤维图像。该方法避免了有监督的配准步骤,解决了无监督聚类错误的问题,实现H&E病理图像的网状纤维和二次谐波胶原纤维的双重虚拟图像生成。
-
公开(公告)号:CN116012839B
公开(公告)日:2025-05-09
申请号:CN202310073803.9
申请日:2023-01-18
Applicant: 福州大学
IPC: G06V20/69 , G06V10/778 , G06V10/774 , G06V10/22 , G06V10/72 , G06V10/82 , G06N3/0464 , G06N3/047 , G06N3/048 , G06N3/084
Abstract: 本发明涉及一种基于多光子肿瘤相关胶原特征的乳腺癌切缘识别方法,包括:获取乳腺癌多光子图像;根据乳腺癌多光子图像中的肿瘤相关胶原特征,在乳腺癌多光子图像中采集设定数量的图像块,对其进行数据清洗和数据预处理,构造训练数据集;构建组织成分识别模块并用其学习训练数据集中的特征信息;根据乳腺组织病理特点和临床肿瘤切除原则,构建组织成分可视化模块,显示组织成分识别结果;对给定的乳腺癌多光子图像进行从局部到整体的识别,以滑动窗口的方式重叠地将图像块输入到组织成分识别模块,输出组织成分类别;最后将所有的组织成分识别结果整合,形成最终的切缘识别结果。该方法有利于快速、自动地识别切除范围和乳腺癌切缘位置。
-
公开(公告)号:CN118136198A
公开(公告)日:2024-06-04
申请号:CN202410180124.6
申请日:2024-02-18
IPC: G16H15/00 , G16H50/20 , G16H70/60 , G06V20/69 , G06V10/44 , G06V10/774 , G06V10/82 , G06N3/0455 , G06N3/0464
Abstract: 本发明提供一种基于大型语言模型的交互式多光子乳腺癌切缘病理报告生成系统,设计一种由深度卷积神经网络和可视化算法组成的浸润性乳腺癌切缘识别模型;构建肿瘤相关胶原特征诊断报告生成模型,制作多光子图像诊断报告数据集并训练模型;根据学术论文摘要制作乳腺癌医学知识对话数据集微调开源大型语言模型;将两个模型的诊断结果通过函数转换为文本描述,然后结合报告模板和用户问题,形成输入提示符,大型语言模型输出多光子乳腺癌切缘病理报告,并根据用户问题提供交互式解释和医学建议。本发明在传统图像诊断模型中引入大型语言模型,实现在仅有乳腺癌多光子图像情况下自动生成乳腺癌切缘病理报告。
-
公开(公告)号:CN117974422A
公开(公告)日:2024-05-03
申请号:CN202410168625.2
申请日:2024-02-06
IPC: G06T3/04 , G06N3/094 , G06N3/0475 , G06N3/045 , G06V10/764 , G06V10/774 , G06V10/82
Abstract: 本发明涉及一种基于风格对抗网络的H&E染色图像风格归一化方法。包括:收集不同中心的多风格的H&E图像,风格随机排序并附着标签序号,根据专家评分选择标准染色风格;统计所有风格H&E图像的放大倍率,根据放大倍率采样分块;叠加标签序号通道;设计风格标签对抗损失;设计无参考分类模块;根据标签序号构建风格对抗网络结构;使用H&E图像数据集训练风格对抗网络并生成多风格H&E图像归一化后的虚拟目标风格图像。该方法解决现有风格归一化方法的内容损失以及不同风格图像数据量不均衡的问题,从而提高该方法的泛化性,实现了多风格H&E病理图像的染色归一化。
-
-
-
-