基于多CNN组合和模糊神经网络的多模态医学图像融合

    公开(公告)号:CN112750097A

    公开(公告)日:2021-05-04

    申请号:CN202110050993.3

    申请日:2021-01-14

    Applicant: 中北大学

    Abstract: 本发明属于医学图像融合领域,具体涉及基于多CNN组合和模糊神经网络的多模态医学图像融合。为了将多模态医学图像中病灶部位的纹理细节表征更充分,边缘更清晰,本发明提出的方法主要有两部分组成:1)构建G‑CNN组(G‑CNNs);2)基于模糊神经网络的G‑CNNs融合。第一部分首先通过一组比例和方向不同的Gabor滤波器获得CT和MR的不同Gabor表示对,然后分别使用每对不同的Gabor表示训练相应的CNN,从而生成G‑CNNs;第二部分利用模糊神经网络将G‑CNNs的多个输出进行融合得到最后的融合图像。

    基于多CNN组合和模糊神经网络的多模态医学图像融合

    公开(公告)号:CN112750097B

    公开(公告)日:2022-04-05

    申请号:CN202110050993.3

    申请日:2021-01-14

    Applicant: 中北大学

    Abstract: 本发明属于医学图像融合领域,具体涉及基于多CNN组合和模糊神经网络的多模态医学图像融合。为了将多模态医学图像中病灶部位的纹理细节表征更充分,边缘更清晰,本发明提出的方法主要有两部分组成:1)构建G‑CNN组(G‑CNNs);2)基于模糊神经网络的G‑CNNs融合。第一部分首先通过一组比例和方向不同的Gabor滤波器获得CT和MR的不同Gabor表示对,然后分别使用每对不同的Gabor表示训练相应的CNN,从而生成G‑CNNs;第二部分利用模糊神经网络将G‑CNNs的多个输出进行融合得到最后的融合图像。

    一种基于双残差超密集网络的多模态医学图像融合方法

    公开(公告)号:CN111882514A

    公开(公告)日:2020-11-03

    申请号:CN202010734334.7

    申请日:2020-07-27

    Applicant: 中北大学

    Abstract: 本发明公开了一种基于双残差超密集网络的多模态医学图像融合方法,包括:通过在双残差超密集网络中的第一Conv层卷积和PReLU层激活,提取第一模态医学图像和第二模态医学图像的浅层特征;通过残差学习和超密集连接,提取深层特征;对深层特征依次进行双残差超密集网络中的Concat层通道维度上拼接、最后Conv层卷积、PReLU层激活,获得第一模态医学图像和第二模态医学图像的融合图像。本发明通过将残差密集块与超密集连接结合提出的双残差超密集块不仅将密集连接应用到同一路径的层之间,还运用到跨不同路径的层之间,在提取不同模态图像特征的两个路径间进行信息传递,使得提取到的深层特征更详细丰富,减少了网络中间层有用信息的丢失。

    基于残差自注意力图像增强的高倍速采MRI重建方法

    公开(公告)号:CN111696168A

    公开(公告)日:2020-09-22

    申请号:CN202010538650.7

    申请日:2020-06-13

    Applicant: 中北大学

    Abstract: 本发明涉及MRI加速采集方法,具体为基于残差自注意力图像增强的高倍速采MRI重建方法。本方法采用生成对抗网络构建本发明的网络结构,将基于残差自注意力的特征增强模块内嵌至U-NET收缩路径底部;将高倍欠采样图像输入生成器,经U-NET收缩路径提取高级特征图后输入特征增强模块得到特征增强图,再经U-NET扩展路径解码,并与收缩路径对应的特征图合并,融合扩展时对应级别收缩层的特征,补充缺失的边界信息,准确预测边缘信息,得到重建图像。本方法可以捕获图像更抽象、更丰富的纹理细节特征,融合局部信息和非局部信息以增强全局信息量,整个过程由网络自动选择有效特征,能实现关键区域纹理细节的自适应提取与重构,可以很好地重建高倍速采MR图像。

    基于注意力机制生成对抗网络的多波段图像特征级融合方法

    公开(公告)号:CN110555458A

    公开(公告)日:2019-12-10

    申请号:CN201910672081.2

    申请日:2019-07-24

    Applicant: 中北大学

    Abstract: 本发明涉及图像融合方法,尤其涉及多波段图像融合方法,具体为基于注意力机制生成对抗网络的多波段图像特征级融合方法。本方法按如下步骤进行:设计并构建生成对抗网络,生成器中包含混合注意力机制的特征增强模块,通过生成器和判别器的动态平衡训练得到一个生成模型;本方法实现了多波段图像端到端的神经网络融合,显著提高了融合图像的细节质量。

    基于生成对抗网络和超分辨率网络的多模态图像融合方法

    公开(公告)号:CN109325931A

    公开(公告)日:2019-02-12

    申请号:CN201810962126.5

    申请日:2018-08-22

    Applicant: 中北大学

    Abstract: 本发明涉及图像融合方法,尤其涉及多模态图像融合方法,具体为基于生成对抗网络和超分辨率的多模态图像融合方法,本方法按如下步骤进行:设计并构建生成对抗网络,网络结构采用构思的深度残差神经网络,通过生成器和判别器的动态平衡训练得到一个生成模型;构建基于卷积层的超分辨率网络;将多波段/多模态源图像输入生成模型,得到初步融合图像;再将图像输入到训练好的超分辨率网络,得到高质量的最终融合图像。本方法实现了多波段/多模态图像端到端的神经网络融合,避免了依据先验知识进行图像多尺度多方向分解和融合规则设计的困难,实现了网络自适应融合。

    基于内外部选择状态空间的离线强化学习序列建模方法

    公开(公告)号:CN119623511A

    公开(公告)日:2025-03-14

    申请号:CN202411674372.2

    申请日:2024-11-21

    Applicant: 中北大学

    Abstract: 本发明属于强化学习技术领域,具体涉及基于内外部选择状态空间的离线强化学习序列建模方法。为解决模型学习存在不准确性的问题,以及在序列建模过程中存在Transforemer计算复杂和成本高的问题,本发明依据轨迹序列元素间的Markov属性构建元素依赖表示,使用内部Mamba模块对元素依赖表示建模,捕获轨迹中的短期因果关系,并且结合状态空间模型和离线强化学习,在外部Mamba模块中利用线性复杂度的Mamba对离线强化学习轨迹序列进行建模,捕获元素间的长期时间关系。

    一种全局与局部特征交互并行的多模态医学图像融合方法

    公开(公告)号:CN117974468A

    公开(公告)日:2024-05-03

    申请号:CN202311505772.6

    申请日:2023-11-13

    Applicant: 中北大学

    Abstract: 本发明公开了一种全局与局部特征交互并行的多模态医学图像融合方法,属于医学图像融合技术领域。针对目前多模态医学图像融合方法中存在的Transformer对局部特征提取能力不足、特征提取过程中纹理、边缘信息丢失的问题,通过在Encoder模块中使用由局部多头注意机制构成的Local Transformer block,解决了基于深度学习的多模态医学图像融合方法中Transformer对局部特征提取能力不足的问题;在特征提取过程中引入全局局部特征交互模块,减少了图像全局和局部信息的丢失。从实验结果可知,经本发明提出的方法得到的多模态医学融合图像,主观上细节丰富、纹理清晰,客观上评价指标整体优于其余对比方法,更有利于帮助医生进行临床诊断和有效治疗。

Patent Agency Ranking