一种基于生成对抗网络的压缩感知图像重建方法及系统

    公开(公告)号:CN109544656B

    公开(公告)日:2023-05-23

    申请号:CN201811404831.X

    申请日:2018-11-23

    Abstract: 本发明公开了一种基于生成对抗网络的压缩感知图像重建方法,包括:S1、根据原始图像采样得到的测量向量与重建图像大小构建基于神经网络的生成对抗网络模型,并设计用于优化所述生成对抗网络模型参数的目标函数;S2、预设训练所述生成对抗网络模型时的参数;S3、根据所述目标函数,采用反向传播算法交替训练生成器与鉴别器;S4、若所述生成对抗网络模型收敛,则训练好的网络可以直接实现压缩感知任务,模型输出为由所述测量向量重构出的对应原图像;否则返回执行步骤S2‑S4。本发明利用生成器的强大映射能力,初步重建原始图像,利用生成器和鉴别器的对抗训练,使得生成器重建的图像像素分布更接近原始图像,达到了低采样率下精确重建原始图像的目的。

    一种高光谱图像分类方法

    公开(公告)号:CN108182449A

    公开(公告)日:2018-06-19

    申请号:CN201711416468.9

    申请日:2017-12-25

    Abstract: 本发明公开了一种高光谱图像分类方法,属于图像信息处理技术领域。本发明方法包括以下步骤:首先,输入一张高光谱图像,以它的每个像素点为中心,提取多尺度的子立方块;其次,对于同一尺度的立方块,利用鲁棒矩阵判别分析模型挖掘其空-谱特征;最后,将每个尺度上的特征表示送入支持向量机模型,得到每个尺度的分类结果,并用“多数投票(Majority Voting)”法融合不同尺度的分类结果。相对于其它基于判别分析模型的特征提取方法,本发明不仅利用了高光谱图像的光谱信息,而且充分利用了其空间信息,因而可以获取更好的分类效果,并且对噪声和图像退化具有一定的鲁棒性。

    一种基于生成对抗网络的压缩感知图像重建方法及系统

    公开(公告)号:CN109544656A

    公开(公告)日:2019-03-29

    申请号:CN201811404831.X

    申请日:2018-11-23

    CPC classification number: G06T11/00 G06N3/084

    Abstract: 本发明公开了一种基于生成对抗网络的压缩感知图像重建方法,包括:S1、根据原始图像采样得到的测量向量与重建图像大小构建基于神经网络的生成对抗网络模型,并设计用于优化所述生成对抗网络模型参数的目标函数;S2、预设训练所述生成对抗网络模型时的参数;S3、根据所述目标函数,采用反向传播算法交替训练生成器与鉴别器;S4、若所述生成对抗网络模型收敛,则训练好的网络可以直接实现压缩感知任务,模型输出为由所述测量向量重构出的对应原图像;否则返回执行步骤S2-S4。本发明利用生成器的强大映射能力,初步重建原始图像,利用生成器和鉴别器的对抗训练,使得生成器重建的图像像素分布更接近原始图像,达到了低采样率下精确重建原始图像的目的。

    一种基于非局部正则的压缩感知网络图像重建方法

    公开(公告)号:CN110728728A

    公开(公告)日:2020-01-24

    申请号:CN201910874274.6

    申请日:2019-09-17

    Abstract: 本发明公开了一种基于非局部正则的压缩感知网络图像重建方法,首先获取图像数据,进行归一化处理,对图像序列进行采样,获得相应的测量向量;获取图像尺寸,根据该大小设置随机噪声,构建压缩感知网络模型,将随机噪声与测量向量作为网络的输入,添加非局部正则约束,设计目标函数,预设网络模型的超参数;采用半二次分裂算法对所设计的目标函数进行求解,交替迭代优化所构造的压缩感知网络模型,并进行正则项参数的更新,直至满足迭代结束条件;迭代过程结束后,根据当前次迭代结果计算得到重建后的图片序列,从而实现非局部正则约束的压缩感知网络重建。本发明可以在低采样的情况下,不需要对网络预训练,便可重建出接近原图的图像。

    基于残差双注意力深度网络的CT图像肾脏分割算法

    公开(公告)号:CN110675406A

    公开(公告)日:2020-01-10

    申请号:CN201910871083.4

    申请日:2019-09-16

    Abstract: 本发明公开了一种基于残差双注意力深度网络的CT图像肾脏分割算法,该方法将残差单元能重复利用特征的优点和双注意力机制优良的特征学习能力相结合,设计了残差双注意力模块,并以残差双注意力模块为基础模块构建U型深度网络分割模型,同时设计用于分割的损失函数,使U型深度网络分割模型能够更加关注肾脏区域特征,可有效应对囊性病变肾脏的形状变化,能够对囊性病变下肾脏的形状变化保持鲁棒;进而准确定位肾脏区域边界,实现CT图像中肾脏区域的自动分割,并起到很好的分割效果。

    一种基于标签约束弹性网图模型的高光谱图像分类方法

    公开(公告)号:CN110399909B

    公开(公告)日:2021-07-27

    申请号:CN201910609358.7

    申请日:2019-07-08

    Abstract: 本发明公开了一种基于标签约束弹性网图模型的高光谱图像分类方法。步骤:对待高光谱图像进行EMP特征提取,构建空谱联合特征;根据空谱联合特征进行标签约束传递,获得全局约束矩阵;根据全局约束矩阵,针对每个像素点构建字典;根据字典求解弹性网表示,构建标签约束的弹性网图模型;基于弹性网图模型进行半监督分类,得到标签矩阵,实现高光谱图像分类。本发明可以降低计算的复杂度,提高构图的准确性,提升算法分类性能。

    一种基于非局部正则的压缩感知网络图像重建方法

    公开(公告)号:CN110728728B

    公开(公告)日:2023-04-21

    申请号:CN201910874274.6

    申请日:2019-09-17

    Abstract: 本发明公开了一种基于非局部正则的压缩感知网络图像重建方法,首先获取图像数据,进行归一化处理,对图像序列进行采样,获得相应的测量向量;获取图像尺寸,根据该大小设置随机噪声,构建压缩感知网络模型,将随机噪声与测量向量作为网络的输入,添加非局部正则约束,设计目标函数,预设网络模型的超参数;采用半二次分裂算法对所设计的目标函数进行求解,交替迭代优化所构造的压缩感知网络模型,并进行正则项参数的更新,直至满足迭代结束条件;迭代过程结束后,根据当前次迭代结果计算得到重建后的图片序列,从而实现非局部正则约束的压缩感知网络重建。本发明可以在低采样的情况下,不需要对网络预训练,便可重建出接近原图的图像。

    一种基于标签约束弹性网图模型的高光谱图像分类方法

    公开(公告)号:CN110399909A

    公开(公告)日:2019-11-01

    申请号:CN201910609358.7

    申请日:2019-07-08

    Abstract: 本发明公开了一种基于标签约束弹性网图模型的高光谱图像分类方法。步骤:对待高光谱图像进行EMP特征提取,构建空谱联合特征;根据空谱联合特征进行标签约束传递,获得全局约束矩阵;根据全局约束矩阵,针对每个像素点构建字典;根据字典求解弹性网表示,构建标签约束的弹性网图模型;基于弹性网图模型进行半监督分类,得到标签矩阵,实现高光谱图像分类。本发明可以降低计算的复杂度,提高构图的准确性,提升算法分类性能。

    一种超图卷积网络模型及其半监督分类方法

    公开(公告)号:CN109492691A

    公开(公告)日:2019-03-19

    申请号:CN201811318538.1

    申请日:2018-11-07

    CPC classification number: G06K9/6259 G06K9/6267 G06N3/0454 G06N3/08

    Abstract: 本发明提供一种超图卷积网络模型及其半监督分类方法包括如下步骤:包括如下步骤:步骤1:对非欧式结构的样本数据特征进行稀疏编码,形成样本表示系数矩阵;步骤2:依据样本的相似性构建超边,计算超边权重,构建超图模型;步骤3:借助于超图谱理论,定义超图上的卷积运算,构建超图卷积网络模型;步骤4:定义超图卷积网络上的半监督学习方法,设计损失函数,旨在利用少量标定样本的类别信息,预测所有样本的类别标签;步骤5:分别制作训练、验证和测试的半给定标签矩阵,设置网络超参数,训练网络模型,依据随机梯度下降算法学习网络的卷积核以及正则性因子参数;步骤6:对于给定数据,用训练好的模型预测未知的样本类别,实现半监督分类。

    一种基于目标检测和图像分割的行人保护系统

    公开(公告)号:CN208180882U

    公开(公告)日:2018-12-04

    申请号:CN201820518390.5

    申请日:2018-04-12

    Abstract: 本实用新型涉及一种基于目标检测和图像分割的行人保护系统,属于智能交通安全领域。包括视频采集模块、主控制器模块、提醒模块和制动模块,视频采集模块、提醒模块和制动模块分别与主控制器模块相连。通过目标检测和图像分割,自动检测到行驶过程中的行人及通过分割出来的人形图像预估行人与车身的距离,在行人出现时向驾驶者发出语音减速提醒,并且能在紧急情况下自动制动,避免发生碾压事故。

Patent Agency Ranking