-
公开(公告)号:CN114332577A
公开(公告)日:2022-04-12
申请号:CN202111648121.3
申请日:2021-12-31
Applicant: 福州大学
IPC: G06V10/80 , G06V10/764 , G06V10/771 , G06V10/25 , G06V10/44 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08 , G06N20/20
Abstract: 本发明提出一种结合深度学习与影像组学的结直肠癌图像分类方法及系统,针对深度学习模型训练种小样本问题,充分利用已有的数据进行数据增强(旋转,平移、图像变换等)为了解决医生手工标记耗时耗力的问题,引入深度学习的自动分割网络模型,实现自动的从图像中标注感兴趣区域。针对深度学习模型提取的特征可解释性差,获取特征信息不够全面的问题,采用影像组学特征、深度学习特征和临床病理信息三者融合获取更多更全面的特征信息,进一步提高影像组学的分类准确性和可靠性。
-
公开(公告)号:CN114119511A
公开(公告)日:2022-03-01
申请号:CN202111339539.6
申请日:2021-11-12
Applicant: 福州大学
IPC: G06T7/00 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04
Abstract: 本发明涉及一种基于EfficientNet结构的结肠镜图像评价方法,包括以下步骤:步骤S1:获取结直肠序列图像,并初步分类为左半结肠、横结肠、右半结肠三段子序列图像;步骤S2:对子序列图像进行预处理;步骤S3:根据预处理后的子序列图像,基于可缩放的EfficientNet网络模型,获得最优的分类;步骤S4:基于BBPS肠道准备评价标准,即对左半结肠、横结肠、右半结肠三段子序列图像分别评分,累计各段肠道清洁度最差的图像评分,进一步评价结肠镜图像是否合格。本发明有效实现肠道准备的自动、准确的评价,可极大减轻医生的负担。
-
公开(公告)号:CN112801020A
公开(公告)日:2021-05-14
申请号:CN202110174952.5
申请日:2021-02-09
Applicant: 福州大学
Abstract: 本发明涉及一种基于背景灰度化的行人再识别方法及系统,该方法包括:S1、对原始图像进行背景灰度化处理,得到处理后的BGg图像;S2、基于ResNet50的双路网络,一路为背景灰度流BGg‑Stream,对BGg图像进行特征提取,另一路为全局流G‑Stream,对原始图像进行特征提取;S3、通过级联对两路网络进行彼此交互;S4、两路网络在每个阶段所得的特征图,通SCAB模块之后作为BGg‑stream的下一层卷积的输入特征图,使两路网络得以联系,两路特征得以结合;S5、采用三元组损失函数来更新网络参数,并进行相似度计算,最后输出排列序列。该方法及系统有利于弱化背景干扰,提高行人再识别的准确度。
-
公开(公告)号:CN112733953A
公开(公告)日:2021-04-30
申请号:CN202110072573.5
申请日:2021-01-19
Applicant: 福州大学
Abstract: 本发明涉及一种基于Non‑local CNN‑GCN和拓扑子图的肺CT图像动静脉血管分离方法。首先,使用尺度空间粒子采样方法将血管树表示为一组中心线体素粒子。接着,根据粒子体素及其相邻体素构造拓扑图,并从拓扑图中提取只包含动脉或静脉分支的拓扑子图。然后,基于拓扑图训练Non‑local CNN‑GCN分类器。最后利用拓扑子图来改进分类结果。
-
公开(公告)号:CN114119511B
公开(公告)日:2024-12-03
申请号:CN202111339539.6
申请日:2021-11-12
Applicant: 福州大学
IPC: G06T7/00 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/0464
Abstract: 本发明涉及一种基于EfficientNet结构的结肠镜图像评价方法,包括以下步骤:步骤S1:获取结直肠序列图像,并初步分类为左半结肠、横结肠、右半结肠三段子序列图像;步骤S2:对子序列图像进行预处理;步骤S3:根据预处理后的子序列图像,基于可缩放的EfficientNet网络模型,获得最优的分类;步骤S4:基于BBPS肠道准备评价标准,即对左半结肠、横结肠、右半结肠三段子序列图像分别评分,累计各段肠道清洁度最差的图像评分,进一步评价结肠镜图像是否合格。本发明有效实现肠道准备的自动、准确的评价,可极大减轻医生的负担。
-
公开(公告)号:CN114299058B
公开(公告)日:2024-09-06
申请号:CN202111680086.3
申请日:2021-12-30
Applicant: 福州大学
IPC: G06T7/00 , G16H50/20 , G16H10/20 , G16H10/60 , G06V10/762 , G06V10/764 , G06V10/82 , G06N3/042 , G06N3/0442 , G06N3/0464 , G06N3/08
Abstract: 本发明提出一种基于扩散MRI图像的脑网络分析方法,同时采用双任务的模型训练方法,实现脑网络的综合性分析。解决脑网络在非欧空间进行表示学习的问题。同时采用双任务的模型训练方法,实现临床数据的充分利用,得到脑网络的定性和定量分析结果。其采用可在非欧空间上感知不规则结构数据特征的图神经网络(GNNs)模型对脑网络进行表示学习,以提高模型对于脑网络表示的准确度。此外,采用双任务的训练策略调节网络参数,以增加分析结果的实用性。
-
公开(公告)号:CN114299018B
公开(公告)日:2024-07-05
申请号:CN202111633527.4
申请日:2021-12-29
Applicant: 福州大学
IPC: G06T7/00 , G06T7/11 , G06T5/30 , G06V10/82 , G06V10/80 , G06V10/764 , G06T5/60 , G06N3/0455 , G06N3/0464 , G06N3/09
Abstract: 本发明涉及一种基于中心线拓扑连通和多视角信息的CT图像血管分割方法,包括以下步骤:步骤S1:获取原始CT图像,并进行预处理;步骤S2:将预处理后的CT图像,分成若干含动静脉血管标签的感兴趣区域的图像块;步骤S3:将图像块送入基于U‑Net的多尺度深监督网络进行分割,将网络输出的动静脉分割结果通过多视角投票策略得到初步结果;步骤S4:利用从中心线模型学习到的血管拓扑连通信息对初步结果中错误的部分进行修正;步骤S5:采用形态学膨胀得到衍生的血管颗粒,并利用肺血管网络模型学习的肺血管形态信息对动静脉进行修正,得到最终的分割结果。本发明准确率高,泛化能力强,能够在不同类型的CT图像中获得精准的动静脉分割结果。
-
公开(公告)号:CN114332122B
公开(公告)日:2024-06-07
申请号:CN202111637998.2
申请日:2021-12-30
Applicant: 福州大学
IPC: G06T7/11 , G06T7/00 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明提出一种基于注意力机制分割并回归的细胞计数方法,将细胞分割和回归结合起来,以起到减小细胞计数的误差的效果。此外,基还于U‑Net++的原始模型结构进行改进,引入卷积注意力机制模块,以增强分割的效果。考虑到目前大部分基于卷积回归网络的细胞计数方法都是经过全卷积网络训练后进行回归计数,从而导致细胞的计数结果会有较大的误差,因此本发明设计的基于注意力机制分割并回归的细胞计数方法,在进行全卷积训练中增加分割模块,以增加细胞计数的准确性,采用先分割后回归,达到精确计数的目的。
-
公开(公告)号:CN112651969B
公开(公告)日:2023-04-07
申请号:CN202110169782.1
申请日:2021-02-08
Applicant: 福州大学
IPC: G06T7/00 , G06T7/11 , G06T7/12 , G06V10/25 , G06V10/764 , G06V10/26 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种结合多信息融合网络和区域增长的气管树分级提取方法,其包括以下步骤:步骤S1:获取肺部的CT图像,并预处理;步骤S2:将预处理后的肺部的CT图像集进行分级,划分整体气管树和细小气管分支两个训练集;步骤S3:分别对整体气管树训练集和细小气管分支训练集进行采样,得到整体气管树训练子集和细小气管训练子集;步骤S4:构建多信息融合分割模型,并根据整体气管树训练子集训练;步骤S5:构建体素分类网络模型,并根据细小气管训练子集训练;步骤S6:将待分割图像数据依次输入训练后的多信息融合分割模型和训练后的体素分类网络模型,得到初步气管树;步骤S7:基于中心线的几何重建方法进处理初步气管树,得到最终的气管树。本发明有效提高分类的准确性。
-
公开(公告)号:CN112801020B
公开(公告)日:2022-10-14
申请号:CN202110174952.5
申请日:2021-02-09
Applicant: 福州大学
Abstract: 本发明涉及一种基于背景灰度化的行人再识别方法及系统,该方法包括:S1、对原始图像进行背景灰度化处理,得到处理后的BGg图像;S2、基于ResNet50的双路网络,一路为背景灰度流BGg‑Stream,对BGg图像进行特征提取,另一路为全局流G‑Stream,对原始图像进行特征提取;S3、通过级联对两路网络进行彼此交互;S4、两路网络在每个阶段所得的特征图,通SCAB模块之后作为BGg‑stream的下一层卷积的输入特征图,使两路网络得以联系,两路特征得以结合;S5、采用三元组损失函数来更新网络参数,并进行相似度计算,最后输出排列序列。该方法及系统有利于弱化背景干扰,提高行人再识别的准确度。
-
-
-
-
-
-
-
-
-