-
公开(公告)号:CN110807742B
公开(公告)日:2023-02-24
申请号:CN201911003520.7
申请日:2019-11-21
Applicant: 西安工业大学
IPC: G06T5/00
Abstract: 本发明公开了一种基于一体式网络的微光图像增强方法。本发明提供的方法是:首先运用计算机读取低光照条件下拍摄的微光图像,通过将微光图像分割为若干超像素,利用局部标准差与局部梯度的比值估计每个超像素的噪声电平;然后,将图像反转,采用BM3D滤波器与结构滤波器自适应方法进行平滑处理,以获得无噪声和纹理完整图像;最后,将无噪声和纹理完整图像输入微光一体式网络中,以增强对比度,防止对比度过度增强。本方法可以对微光图像进行有效的增强处理,在主观评价和客观评价方面均优于传统方法,且图像质量评价指标峰值信噪比和结构相似性指数分别达到31.64dB,91.2%。相对其他基于深度学习进行微光图像增强方法,有效地提高了增强图像的处理速度和鲁棒性。
-
公开(公告)号:CN112600599A
公开(公告)日:2021-04-02
申请号:CN202011092350.7
申请日:2020-10-13
Applicant: 西安工业大学
Abstract: 本发明涉及一种基于SOCP的宽带波束形成方法,所述方法包括以下步骤:1、利用延迟补偿和抽头延迟线构建Frost结构宽带波束形成系统;2、根据先验信息已知的角度信息求解期望信号的宽带阵列流形矢量;3、建立在先验信息存在误差时的宽带LCMV模型;4、利用性能最坏准则,建立并求解SCOP问题,估计波束形成器的权值矢量。本发明所提方法的输出SINR受系统幅相误差和角度偏差的影响要小,保证了波束形成器的在存在系统误差和期望信号的角度误差时的宽带恒定束宽性能,对系统误差和角度偏差具有良好的稳健性;降低了宽带波束形成器的复杂度;为后续的信号估计和解调提供了极大的便利;适用范围广,可应用于任意阵列结构。
-
公开(公告)号:CN110807742A
公开(公告)日:2020-02-18
申请号:CN201911003520.7
申请日:2019-11-21
Applicant: 西安工业大学
IPC: G06T5/00
Abstract: 本发明公开了一种基于一体式网络的微光图像增强方法。本发明提供的方法是:首先运用计算机读取低光照条件下拍摄的微光图像,通过将微光图像分割为若干超像素,利用局部标准差与局部梯度的比值估计每个超像素的噪声电平;然后,将图像反转,采用BM3D滤波器与结构滤波器自适应方法进行平滑处理,以获得无噪声和纹理完整图像;最后,将无噪声和纹理完整图像输入微光一体式网络中,以增强对比度,防止对比度过度增强。本方法可以对微光图像进行有效的增强处理,在主观评价和客观评价方面均优于传统方法,且图像质量评价指标峰值信噪比和结构相似性指数分别达到31.64dB,91.2%。相对其他基于深度学习进行微光图像增强方法,有效地提高了增强图像的处理速度和鲁棒性。
-
公开(公告)号:CN111209952A
公开(公告)日:2020-05-29
申请号:CN202010003815.0
申请日:2020-01-03
Applicant: 西安工业大学
Abstract: 本发明涉及一种基于改进SSD和迁移学习的水下目标检测方法,其克服了现有技术中水下目标检测的欠拟合,识别率低,鲁棒性差的问题,有效提高了水下目标检测识别率与视觉效果。本发明包括以下步骤:步骤1、准备阶段:运用计算机读取深水中条件下拍摄的水下图像,利用水下背景图片与水上目标场景图像进行融合处理,获取更多水下图像;步骤2、图像的预处理和基于滤波器去除噪声阶段;步骤3、基于骨干网的特征提取阶段;步骤4、基于迁移学习的网络模型训练阶段:利用迁移学习方法训练Underwater-SSD网络;步骤5、基于软化非极大值抑制算法soft-NMS目标检测阶段:在迁移学习训练后的模型后加入软化非极大值抑制算法。
-
-
公开(公告)号:CN112069943A
公开(公告)日:2020-12-11
申请号:CN202010860855.7
申请日:2020-08-25
Applicant: 西安工业大学
Abstract: 本发明公开了一种基于自顶向下框架的在线多人姿态估计与跟踪方法,实现视频中实时人体姿态估计与在线多人姿态跟踪。首先通过单阶段目标检测网络提取人体提议框,并结合特征金字塔结构加入深度可分离卷积,改善模型提取小目标人体提议框的精度与模型实时性;然后,将人体提议框送入姿态估计网络进行关节点检测,按照人体关节点检测的不同难易程度,结合上下文语义信息与在线难例挖掘算法完成困难关节点检测;最后,将人体姿态信息送入姿态跟踪网络中,基于ORB角点检测与匹配算法计算帧间姿态距离,构建并优化姿态流,完成实时多人姿态跟踪。经试验验证,该方法能够实时、准确地完成多人姿态估计与姿态跟踪,多目标跟踪准确度(MOTA)指标为59.1%,姿态跟踪帧率达到28帧/秒。
-
-
-
-
-