-
公开(公告)号:CN114283331B
公开(公告)日:2025-04-25
申请号:CN202111459379.9
申请日:2021-12-02
Applicant: 西安邮电大学 , 西安空间无线电技术研究所 , 西北工业大学
IPC: G06V20/10 , G06N3/0464 , G06N3/045 , G06N3/082 , G06N3/084 , G06V10/46 , G06V10/80 , G06V10/764 , G06V10/82
Abstract: 本发明涉及一种基于条带剪枝的轻量化SAR图像船舶检测方法,属于图像处理技术领域。利用基于条带卷积的轻量化残差卷积网络提取不同深度的特征图;利用跳跃连接特征金字塔网络对不同深度特征进行融合,得到不同尺度的融合深度特征图;利用基于关键点的回归模型预测每个特征点对应位置的可能性概率和特征点位置到目标边缘的垂直距离,最终得到目标位置和概率。本方法利用基于条带卷积的轻量化残差卷积网络通过一次端对端的训练得到轻量化的残差卷积网络提升了模型的训练效率和模型鲁棒性;条带剪枝增加了剪枝的维度,进一步压缩了模型的参数量和计算量。
-
公开(公告)号:CN104702971A
公开(公告)日:2015-06-10
申请号:CN201510129313.1
申请日:2015-03-24
Applicant: 西安邮电大学
IPC: H04N21/235 , H04N21/232
Abstract: 本发明公开了一种相机阵列高动态范围成像方法,用于解决现有相机阵列成像方法动态范围低的技术问题。技术方案是采用测光表或相机内置测光器获得目标场景的最亮和最暗亮度,得到一组优化的曝光包围级数,确定阵列中参与曝光的相机组合并控制参与相机组合对目标场景同时拍摄,获得一组包含目标场景不同曝光设置的低动态范围图像。对该组低动态范围图像依据相机布局与目标场景的几何关系进行几何校正,获得校正后涵盖目标场景动态范围的一组低动态范围图像。将多曝光技术获取高动态范围图像的总曝光时间等于多次曝光之和减小为曝光包围组合中的一次最长曝光时间。解决了静态场景高动态范围成像多次曝光耗时长,动态场景高动态范围成像的鬼影问题。
-
公开(公告)号:CN116152128A
公开(公告)日:2023-05-23
申请号:CN202211489946.X
申请日:2022-11-25
Applicant: 西安邮电大学
IPC: G06T5/50 , G06V10/774 , G06V10/80 , G06N3/048 , G06N3/08 , G06N3/0464
Abstract: 本发明涉及一种基于注意力机制的高动态范围多曝光图像融合方法,属于图像处理技术领域。首先,将目标场景两张不同曝光图像分别输入到结构相同的两组特征提取模块中,获得目标场景两张不同曝光图像对应的两组高维特征图。随后将上述两组高维特征图作为输入分别送入相应的注意力机制模块,以突出融合有利的图像特征,抑制欠饱和、过饱和等低质量区域的特征,得到重建融合图像所需的纯净高维特征。特征重建模块将注意力机制模块输出的两组不同曝光图像的高维特征融合重建为高动态范围图像。本发明方法提高了高动态范围多曝光图像融合的质量和鲁棒性。
-
公开(公告)号:CN107370910A
公开(公告)日:2017-11-21
申请号:CN201710659897.2
申请日:2017-08-04
CPC classification number: H04N5/243 , H04N5/217 , H04N5/2356
Abstract: 本发明公开了一种基于最优曝光的最小包围曝光集合获取方法,用于解决现有最小包围曝光获取方法合成的高动态范围图像成像质量差的技术问题。技术方案是采用Debevec&Malik相机响应函数获取方法,依次获取不同曝光下的辐照度范围,建立目标场景最优曝光与相机可捕获曝光中相应曝光对应关系,遍历相机标准曝光序列,求出相机标准曝光序列中对应于目标场景地最小包围曝光图像集合,由目标场景的最优曝光时间按照曝光步数差,计算基于目标场景最优曝光的最小包围曝光图像集合;得到的曝光集合中包括含有目标场景有用信息最多的最优曝光,既保证了成像质量又有效减少了曝光集合中冗余信息和捕获图像集合的总耗时。
-
公开(公告)号:CN103473123B
公开(公告)日:2016-09-07
申请号:CN201310379037.5
申请日:2013-08-27
Abstract: 本发明公开了一种基于GPU的实时毛笔墨水扩散模型并行实现方法,用于解决现有毛笔墨水扩散模型实时性差的技术问题。技术方案是通过网格化受墨区域含墨顶点集合,建立受墨区域墨水量数据CPU‑GPU数据映射关系;利用一对纹理内存组交替读写的模式完成受墨区域墨水量求和,实现GPU并行运算的求和纯并行规约运算;采用基于Box‑Muller变换的方法生成高斯随机数,避免分支与循环操作干扰随机数生成流的效率;利用混合线性同余数周期扩展算法对生成的伪随机数进行周期扩展,解决同余数伪随机数周期受制于余数的问题。由于利用GPU对虚拟纸张受墨区域墨水扩散过程进行并行处理,提高了毛笔墨水扩散模型的实时性。
-
公开(公告)号:CN114283331A
公开(公告)日:2022-04-05
申请号:CN202111459379.9
申请日:2021-12-02
Applicant: 西安邮电大学 , 西安空间无线电技术研究所 , 西北工业大学
Abstract: 本发明涉及一种基于条带剪枝的轻量化SAR图像船舶检测方法,属于图像处理技术领域。利用基于条带卷积的轻量化残差卷积网络提取不同深度的特征图;利用跳跃连接特征金字塔网络对不同深度特征进行融合,得到不同尺度的融合深度特征图;利用基于关键点的回归模型预测每个特征点对应位置的可能性概率和特征点位置到目标边缘的垂直距离,最终得到目标位置和概率。本方法利用基于条带卷积的轻量化残差卷积网络通过一次端对端的训练得到轻量化的残差卷积网络提升了模型的训练效率和模型鲁棒性;条带剪枝增加了剪枝的维度,进一步压缩了模型的参数量和计算量。
-
公开(公告)号:CN103440380B
公开(公告)日:2016-02-24
申请号:CN201310379441.2
申请日:2013-08-27
IPC: G06F17/50
Abstract: 本发明公开了一种基于表面粗糙度的三层纸张模型建模方法,用于解决现有三层纸张模型建模方法所建模型效果差的技术问题。技术方案是通过构造具有高度域信息的虚拟纸张从而获得纸张表面粗糙度信息,弥补了传统分层纸张模型缺乏纸张表面粗糙度信息的不足;通过构造均匀联通网格吸收层对纸张吸水物理特性建模,使得虚拟纸张模型可针对具体的纸张建立相应的模型参数;通过构造水分蒸发沉积层描述不同类型纸张的水分蒸发沉积过程,从而有效的将墨水在纸张上的扩散、渗透、蒸发沉积过程分离,便于后期墨水渲染模拟时的GPU并行处理,提高了三层纸张模型建模效果。
-
公开(公告)号:CN103440380A
公开(公告)日:2013-12-11
申请号:CN201310379441.2
申请日:2013-08-27
IPC: G06F17/50
Abstract: 本发明公开了一种基于表面粗糙度的三层纸张模型建模方法,用于解决现有三层纸张模型建模方法所建模型效果差的技术问题。技术方案是通过构造具有高度域信息的虚拟纸张从而获得纸张表面粗糙度信息,弥补了传统分层纸张模型缺乏纸张表面粗糙度信息的不足;通过构造均匀联通网格吸收层对纸张吸水物理特性建模,使得虚拟纸张模型可针对具体的纸张建立相应的模型参数;通过构造水分蒸发沉积层描述不同类型纸张的水分蒸发沉积过程,从而有效的将墨水在纸张上的扩散、渗透、蒸发沉积过程分离,便于后期墨水渲染模拟时的GPU并行处理,提高了三层纸张模型建模效果。
-
公开(公告)号:CN105976429B
公开(公告)日:2022-04-22
申请号:CN201610285924.X
申请日:2016-05-03
Applicant: 西安邮电大学 , 陕西省互联网信息办公室
IPC: G06T17/00
Abstract: 本发明公开了一种刑侦画像计算机辅助系统及方法,用于解决现有人工刑侦画像方法准确度差的技术问题。技术方案是系统包括视频/图像处理模块、二维人脸画像模块、三维人脸画像模块、电子绘图板、画像输入输出装置和传统画板。方法是视频/图像处理模块提取嫌疑人脸部信息并转化为二维图像送二维人脸画像模块,借助人工画像方法中的对称性、三庭五眼和面部结构等规则,构造嫌疑人脸部轮廓和局部细节图像,在电子绘图板生成画像底板;然后由专业人员在此基础上补充特征生成嫌疑人脸部二维画像。由于利用了已有视频信息生成画像底板,在很大程度上减小了画像师个人因素引入的误差,提高了刑侦画像的准确度。
-
公开(公告)号:CN107370910B
公开(公告)日:2019-09-24
申请号:CN201710659897.2
申请日:2017-08-04
Abstract: 本发明公开了一种基于最优曝光的最小包围曝光集合获取方法,用于解决现有最小包围曝光获取方法合成的高动态范围图像成像质量差的技术问题。技术方案是采用Debevec&Malik相机响应函数获取方法,依次获取不同曝光下的辐照度范围,建立目标场景最优曝光与相机可捕获曝光中相应曝光对应关系,遍历相机标准曝光序列,求出相机标准曝光序列中对应于目标场景地最小包围曝光图像集合,由目标场景的最优曝光时间按照曝光步数差,计算基于目标场景最优曝光的最小包围曝光图像集合;得到的曝光集合中包括含有目标场景有用信息最多的最优曝光,既保证了成像质量又有效减少了曝光集合中冗余信息和捕获图像集合的总耗时。
-
-
-
-
-
-
-
-
-