-
-
公开(公告)号:CN109714584A
公开(公告)日:2019-05-03
申请号:CN201910026936.4
申请日:2019-01-11
Applicant: 杭州电子科技大学
IPC: H04N13/161 , H04N13/106 , H04N19/182 , H04N19/597 , H04N19/91
Abstract: 本发明公开了一种基于深度学习的3D-HEVC深度图编码单元尺寸快速决策方法。本发明首先利用官方传统方法,先统计测试序列前10帧的深度图编码单元的分割情况来建立数据库,再通过深度学习对这些数据集来进行训练,从而产生一个模型。最后利用该模型来判断测试序列完整帧的深度图编码单元是否需要继续分割。深度学习可以发现数据的分布式特征表示,利用深度学习训练出来的网络具有很强的判知能力,所以利用深度学习可以预知深度图编码单元是否需要继续分割。本发明可以降低编码过程中的计算复杂度,缩短编码时间,在视频重建上也有良好的效果。
-
公开(公告)号:CN108415955A
公开(公告)日:2018-08-17
申请号:CN201810116386.0
申请日:2018-02-06
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法。本方法将三维模型利用投影技术投影成二维图片,并将图片做成视频,放置于眼动仪让志愿者观看,进而收集眼动注视点的数据,然后将视频按帧分割,提取图片中的眼动注视点,借助二维到三维的映射技术得到眼动注视点点在三维模型上的坐标点。最后使用建立Ground Truth的算法将得到的眼动注视点数据建立成感兴趣点数据库。本发明更加适用于对模型的重建,因为利用眼动仪可以将模型上人眼最关注区域的部分和不关注区域的部分进行划分。通过感兴趣点标准库对人类感兴趣的地方可以加强重建的精度,相反对于不感兴趣的区域相对减少重建精度,从而减少模型重建的工作量和存储量。
-
公开(公告)号:CN107146248A
公开(公告)日:2017-09-08
申请号:CN201710289393.6
申请日:2017-04-27
Applicant: 杭州电子科技大学
CPC classification number: G06T7/593 , G06N3/0454 , G06N3/08 , G06T2207/10012 , G06T2207/20228
Abstract: 本发明公开了一种基于双流卷积神经网络的立体匹配方法。该方法利用一种双流卷积神经网络,学习并计算出左右视图中目标区域的匹配代价,并以交叉聚合算法作为辅助,有效地获得目标图像的视差图。双流网络结构不仅继承了卷积神经网络计算量小,性能稳定等优点,同时拥有较大的接受域,并且更充分地提取了目标点邻近区域的特征,拥有更高的精度。
-
-
公开(公告)号:CN103093454B
公开(公告)日:2015-04-22
申请号:CN201210560401.3
申请日:2012-12-20
Applicant: 杭州电子科技大学
IPC: G06T7/00
Abstract: 本发明涉及一种面向视觉显著性检测的中央-周围环绕优化方法。本发明方法首先提取输入图像的显著基元,得到三个彩色分量。其次每个显著基元的颜色独特性值并计算空间紧凑性值。然后依据颜色独特性值和空间紧凑性值计算每个显著基元的合成显著性值。最后结合感受野区域采用一种简化中央-周围环绕算子计算每个显著基元的最终显著性值。本发明采用线性加权函数对目前生物视觉感受野的两种模型进行拟合和简化,实现两种感受野模型的统一建模。
-
公开(公告)号:CN102867313B
公开(公告)日:2015-04-22
申请号:CN201210311804.4
申请日:2012-08-29
Applicant: 杭州电子科技大学
IPC: G06T7/40
Abstract: 本发明涉及一种融合区域颜色和HoG特征的视觉显著性检测方法。目前方法通常都基于区域颜色特征的纯计算模型,对于纹理的显著性差异不敏感。本发明方法首先在原始图像的CIELAB空间彩色分量图上,通过分析超像素区域的颜色对比度和分布特性,计算每个像素的颜色显著性值;然后在原始图像的RGB空间彩色分量图上,提取基于HoG的局部矩形区域纹理特征,并通过分析局部矩形区域的纹理对比度和分布特性,计算每个像素的纹理显著性值;最后采用二次非线性融合方法将每个像素的颜色显著性值和纹理显著性值融合为该像素的最终显著性值。本发明方法获得不仅可获得符合人眼视觉感官的全分辨率显著性图像,并且对显著性目标具有更强的区分能力。
-
公开(公告)号:CN103093454A
公开(公告)日:2013-05-08
申请号:CN201210560401.3
申请日:2012-12-20
Applicant: 杭州电子科技大学
IPC: G06T7/00
Abstract: 本发明涉及一种面向视觉显著性检测的中央-周围环绕优化方法。本发明方法首先提取输入图像的显著基元,得到三个彩色分量。其次每个显著基元的颜色独特性值并计算空间紧凑性值。然后依据颜色独特性值和空间紧凑性值计算每个显著基元的合成显著性值。最后结合感受野区域采用一种简化中央-周围环绕算子计算每个显著基元的最终显著性值。本发明采用线性加权函数对目前生物视觉感受野的两种模型进行拟合和简化,实现两种感受野模型的统一建模。
-
公开(公告)号:CN103065298A
公开(公告)日:2013-04-24
申请号:CN201210560879.6
申请日:2012-12-20
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种模拟视网膜滤波的视觉显著性检测方法。本发明通过在CIELAB对色通道上建立高斯尺度空间,提取多尺度显著基元,然后在每个尺度层上计算具有对数响应特性的显著基元颜色独特性值和空间紧凑性,并采用一种基于显著基元按颜色独特性值重组的简化中央-周围算子进行优化滤波。最后经多尺度合成后生成最终显著图。本发明整合了生物视网膜中的多尺度、对数响应和中央-周围环绕特性,以及纯计算方法中的局部对比度和全局对比度特性。可获得更完整且更均匀高亮的显著性目标区域。
-
公开(公告)号:CN102222328B
公开(公告)日:2012-10-03
申请号:CN201110182918.9
申请日:2011-07-01
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种边缘保持的自然场景图像自适应加权滤波方法。本发明方法首先根据高斯滤波器的标准差,计算高斯模板,采用暗通道先验方法,获取原始图像中的深度线索,并归一化,生成深度先验图像。其次计算高斯模板上每个坐标点的空间近邻性权值和计算原始图像上两像素点间的亮度/颜色相似性权值。然后计算原始图像上两像素点间的深度差异性权值和计算模板中心对应于该像素点的自适应加权滤波模板,最后对原始图像中每个像素点,计算其自适应加权滤波结果。本发明方法不仅在亮度/颜色相似性权值计算中考虑了人眼对亮度差异比色彩差异的敏感度不同这一特性,使得该方法符合生物模型。
-
-
-
-
-
-
-
-
-