-
公开(公告)号:CN115426535A
公开(公告)日:2022-12-02
申请号:CN202211065539.6
申请日:2022-09-01
Applicant: 杭州电子科技大学
IPC: H04N21/81 , H04N13/117 , H04N13/128 , H04N13/15 , H04N13/161 , H04N13/366
Abstract: 本发明方法公开了基于背景分离的RGB‑D视频合成视点空洞掩盖方法。本发明方法以参考彩色图、参考深度图和相机信息为单位,利用加入并行注意力的P‑UNet网络分离彩色图前景、根据参考深度图前景与背景之间的像素突变分离前景,将两种方法的背景结合并使用高斯混合模型构建更干净的背景;使用基于深度和时间一致性的修复方法修复背景;然后根据3D变换公式和相机信息绘制出虚拟视点和虚拟背景,并再次修复虚拟背景;最后使用虚拟背景填充虚拟视点空洞中的缺失像素。本发明避免了修复时产生前景渗透,生成的空洞区域在相邻帧之间更有时间一致性,减少视频播放时的帧闪,提高了视觉质量。
-
公开(公告)号:CN115393392A
公开(公告)日:2022-11-25
申请号:CN202210923835.9
申请日:2022-08-02
Applicant: 杭州电子科技大学
Abstract: 本公开涉及一种视觉追踪系统、方法、介质及设备,所述视觉追踪系统,包括:跟踪器;还包括:决策器,用于在所述跟踪器每一轮跟踪结束后,决定是否需要更新外观模板,当需要更新外观模板时,更新所述跟踪器的外观模板;计算优化单元,用于对所述跟踪器和所述决策器的计算流图进行优化。本公开的方案提升了视觉目标跟踪在现实场景下的准确性,能应对物体形变、遮挡等复杂场景。本公开的方案使得视觉目标跟踪任务能在资源受限的硬件环境中运行,降低了部署视觉跟踪系统的成本。
-
公开(公告)号:CN112995672B
公开(公告)日:2022-11-18
申请号:CN202110153835.0
申请日:2021-02-04
Applicant: 杭州电子科技大学
IPC: H04N19/192
Abstract: 本发明公开了一种基于参数选择的视频编码算法优化方法,包括:S1,通过R‑D‑T综合性能评价指标,将率失真性能和编码复杂度进行综合分析;S2,分析参数间的相关性,定量计算参数的耦合系数,根据耦合系数对参数进行排序;S3,通过参数选择算法,在第一个循环中,获得一组最优参数组合;第二个循环在第一个循环的基础上加入编码时间限制,基于同一个参数的取值越小,则编码时间越短的规律,在第一个循环得到的最优参数组合的基础上,通过实际编码时间与目标编码时间对比来确定增大或减小参数取值,比较不同参数调整后的RDTscore,从而找出综合性能最好的参数作为本轮参数调整的对象,直到在误差允许的范围内达到目标复杂度。
-
公开(公告)号:CN112911286B
公开(公告)日:2022-11-15
申请号:CN202110133119.6
申请日:2021-01-29
Applicant: 杭州电子科技大学
IPC: H04N19/117 , H04N19/124 , H04N19/146 , H04N19/154 , H04N19/172 , H04N19/42 , H04N19/625 , G06N3/04 , G06N3/08
Abstract: 本发明属于图像/视频压缩领域,涉及一种基于新型损失函数和可变形卷积的分像素插值滤波器的设计方法,包括:步骤1,在准备训练数据时,采用运动模糊的方式,对高分辨率图像进行降采样操作;步骤2,数据训练过程中,输入降采样后的图像,使用残差学习技术,经过神经网络得到新型损失函数;步骤3,使用新型损失函数训练带有可变形卷积层的神经网络,生成所需残差图像。本发明的新型损失函数既能反映失真同时也考虑了码率;可变形卷积可以更灵活地适应不同的视频图像,从而达到提升编码效果的目的。
-
公开(公告)号:CN115086662A
公开(公告)日:2022-09-20
申请号:CN202210660771.8
申请日:2022-06-13
Applicant: 杭州电子科技大学
IPC: H04N19/124 , H04N19/146
Abstract: 本发明属于视频编码量化算法领域,公开了一种基于上下文自适应阈值的依赖量化剪枝方法,包括如下步骤:步骤1:系数量化分类;步骤2:建立基于上下文的自适应阈值模型;步骤3:自适应阈值确定;步骤5:网格状态更新。本发明通过DQ算法原理和量化结果统计分析,将复杂的动态规划量化抽象为量化参数QP、量化余数ξ、系数上下文index等多变量多区间分类问题。针对同一区间内仍存在不同量化结果问题,提出基于阈值比较的剪枝方法,裁剪部分“安全”路径,简化全路径搜索。极大减小动态规划搜索空间,解决DQ算法中全路径搜索复杂度较高问题。
-
公开(公告)号:CN110365978B
公开(公告)日:2021-11-23
申请号:CN201910638183.2
申请日:2019-07-15
Applicant: 杭州电子科技大学
IPC: H04N19/124 , H04N19/176 , H04N19/625 , H04N19/70
Abstract: 本发明公开了一种基于机器学习算法多层次全零块预判决方法及系统。包括:S1:确定阈值Г1,当max(|dij|)<Γ1时,判定TU块经过HDQ量化后,会量化为全零TU,所述dij是经过DCT变换后的系数;S2:确定阈值Г2,当TU中满足公式(4)的DCT变换系数的个数小于等于Γ2时,则判定该TU经过HDQ方法后是non‑AZB,但是经过RDOQ方法后为AZB,所述公式(4)为所述Г2为S3:TU块经过RDOQ方法后采用机器学习的方法实现AZB预判决,机器学习方法分别提取了TU级别、系数级别和上下文语法元素级别的特征值。能够在量化之前实现较为准确的AZB预判决,实现减少视频编码负担和节约编码时间的目的。
-
公开(公告)号:CN113487564A
公开(公告)日:2021-10-08
申请号:CN202110753105.4
申请日:2021-07-02
Applicant: 杭州电子科技大学
Abstract: 本发明属于用户原创内容视频处理技术领域,公开了一种用于用户原创视频的双流时序自适应选择视频质量评价方法,包括1:基于内容权重分配帧内质量感知模块;2:双流全局时域建模;3:双流更深层次损失函数权重分配。本方法从时域与空域两个维度对视频质量特征进行提取,在空域方面,提取了多尺度的特征图,结合人眼视觉显著性感知对特征图进行权重再分配。在时域方面,引入双流更深层次RNN结构,对前向与后向时序信息进行迭代提取深层次双时序信息。最后,通过深度监督模块对不同的感知层次与顺序的进行损失函数的分配后回归最后的得分。在四个UGC‑VQA数据库上,与目前最好的深度学习方法相比,实现了更进一步的性能提升。
-
公开(公告)号:CN111405265B
公开(公告)日:2021-09-17
申请号:CN202010214373.4
申请日:2020-03-24
Applicant: 杭州电子科技大学
IPC: H04N13/122 , H04N13/275
Abstract: 本发明公开了一种新型的图像绘制技术,包括以下步骤:3D图像变换;利用图像之间的深度差值来划分绘制不准确区域;设置图像的前景阈值和背景阈值;处理空洞。上述技术方案利用图像之间的深度差值来划分绘制不准确区域,根据图像的实际情况将图像中视觉冲击最明显的区域中的破损区域重新进行绘制,从而让图像的绘制区域变得更加清晰,减少最后一步填充空洞时空洞的个数,从而降低时间复杂度。
-
公开(公告)号:CN110730350B
公开(公告)日:2021-08-24
申请号:CN201910911194.3
申请日:2019-09-25
Applicant: 杭州电子科技大学
IPC: H04N19/34
Abstract: 本发明公开了一种结合编码深度估计和贝叶斯判决的SHVC快速编码方法,其实现的方法是在基本层保持原有的编码方法,在增强层采用快速编码方法。SHVC增强层快速编码方法包括编码树单元(CTU)深度范围估计方法、基于最小风险贝叶斯判决的编码单元(CU)快速划分方法和基于最大概率贝叶斯判决的预测单元(PU)快速模式选择方法。本发明大大减少了SHVC增强层编码中的CU深度划分和PU模式选择的复杂度,在保持编码压缩效率的前提下,有效地提高了SHVC的编码速度。
-
公开(公告)号:CN113179396A
公开(公告)日:2021-07-27
申请号:CN202110295931.9
申请日:2021-03-19
Applicant: 杭州电子科技大学
IPC: H04N13/279 , H04N13/106 , H04N13/156 , H04N13/15 , G06T7/194 , G06T5/50 , G06T5/00 , G06K9/62
Abstract: 本发明方法公开了基于K‑means模型的双视点立体视频融合方法。本发明方法首先对左、右视点深度图进行预处理,得到左、右视点深度图像;然后分别对左、右视点深度图像运用K‑means方法进行分割,对分割后的前景和背景区域深度图像进行三维投射运算,得到左、右视点的前景和背景绘制图像;以前景绘制图像为蓝本,用背景绘制图像填充前景绘制图像的空缺区域,将填充后的左、右视点绘制图像进行图像融合,获得虚拟视点绘制图像;最后将虚拟视点绘制图像的空洞区域根据空洞周围的像素信息进行加权填充,获得最终输出图像。本发明方法采用像素级别的操作,对空洞区域进行精准处理,使绘制效果在视觉效果上更加优质,更加协和。
-
-
-
-
-
-
-
-
-