-
公开(公告)号:CN110782480B
公开(公告)日:2023-08-04
申请号:CN201910976634.3
申请日:2019-10-15
Applicant: 哈尔滨工程大学
IPC: G06T7/246 , G06N3/0464
Abstract: 本发明属于红外目标跟踪领域,具体涉及跟踪精度高的一种基于在线模板预测的红外行人跟踪方法。本方法包括如下步骤:步骤1:使用彩色图像构造红外训练数据集;步骤2:对训练数据集中的各个红外行人图像序列,根据数据集标注的目标位置信息,裁剪出目标图像,并将其大小归一化为127×127×1像素的单通道图像,获得相应的模板序列集合,生成模板训练数据集;步骤3:获得组合模板训练数据集,基于残差卷积结构,设计模板预测网络并训练;步骤4:利用训练好的模板预测网络和SiameseRPN实现红外行人跟踪。本发明的有益效果在于:1.生成更接近真实目标的预测模板;2.跟踪精度高。
-
公开(公告)号:CN108257194B
公开(公告)日:2021-06-01
申请号:CN201810062910.0
申请日:2018-01-23
Applicant: 哈尔滨工程大学
Abstract: 本发明涉及一种基于卷积神经网络的人脸简笔画生成方法,包括如下步骤:步骤一:初始化I={I1,I2,……,IN}为人脸图像集;步骤二:构造训练数据集;步骤三:使用误差反传梯度下降算法,根据训练数据集T训练卷积神经网络;步骤四:生成人脸简笔画。本发明根据已有数据集,对原有数据集进行多尺度扰动,增大训练数据集,提高网络泛化能力,可以实现自动提取人脸特征,提取的人脸轮廓精确,系统鲁棒性强。
-
公开(公告)号:CN110782480A
公开(公告)日:2020-02-11
申请号:CN201910976634.3
申请日:2019-10-15
Applicant: 哈尔滨工程大学
Abstract: 本发明属于红外目标跟踪领域,具体涉及跟踪精度高的一种基于在线模板预测的红外行人跟踪方法。本方法包括如下步骤:步骤1:使用彩色图像构造红外训练数据集;步骤2:对训练数据集中的各个红外行人图像序列,根据数据集标注的目标位置信息,裁剪出目标图像,并将其大小归一化为127×127×1像素的单通道图像,获得相应的模板序列集合,生成模板训练数据集;步骤3:获得组合模板训练数据集,基于残差卷积结构,设计模板预测网络并训练;步骤4:利用训练好的模板预测网络和SiameseRPN实现红外行人跟踪。本发明的有益效果在于:1.生成更接近真实目标的预测模板;2.跟踪精度高。
-
公开(公告)号:CN108257194A
公开(公告)日:2018-07-06
申请号:CN201810062910.0
申请日:2018-01-23
Applicant: 哈尔滨工程大学
Abstract: 本发明涉及一种基于卷积神经网络的人脸简笔画生成方法,包括如下步骤:步骤一:初始化I={I1,I2,……,IN}为人脸图像集;步骤二:构造训练数据集;步骤三:使用误差反传梯度下降算法,根据训练数据集T训练卷积神经网络;步骤四:生成人脸简笔画。本发明根据已有数据集,对原有数据集进行多尺度扰动,增大训练数据集,提高网络泛化能力,可以实现自动提取人脸特征,提取的人脸轮廓精确,系统鲁棒性强。
-
公开(公告)号:CN110796599A
公开(公告)日:2020-02-14
申请号:CN201910977225.5
申请日:2019-10-15
Applicant: 哈尔滨工程大学
IPC: G06T3/40
Abstract: 本发明属于图像重建领域,特别是涉及一种视网膜图像超分辨率重建的通道加权生成式对抗网络方法。本发明包括:1)预处理视网膜图像数据集;2)在原始SRGAN模型中加入SENet,构建基于通道加权的生成网络和判别网络;3)设计新的融合损失函数,用于保留有用的低频信息和局部纹理细节信息;4)用训练数据集训练模型;5)使用训练好的生成模型对视网膜图像进行重建,得到相应的超分辨率重建图像。本发明重建图像与原始视网膜图像亮度更加一致,重建后的视网膜图像的细节信息丰富。
-
公开(公告)号:CN110796599B
公开(公告)日:2023-08-01
申请号:CN201910977225.5
申请日:2019-10-15
Applicant: 哈尔滨工程大学
IPC: G06T3/40
Abstract: 本发明属于图像重建领域,特别是涉及一种视网膜图像超分辨率重建的通道加权生成式对抗网络方法。本发明包括:1)预处理视网膜图像数据集;2)在原始SRGAN模型中加入SENet,构建基于通道加权的生成网络和判别网络;3)设计新的融合损失函数,用于保留有用的低频信息和局部纹理细节信息;4)用训练数据集训练模型;5)使用训练好的生成模型对视网膜图像进行重建,得到相应的超分辨率重建图像。本发明重建图像与原始视网膜图像亮度更加一致,重建后的视网膜图像的细节信息丰富。
-
-
-
-
-