-
公开(公告)号:CN115131209A
公开(公告)日:2022-09-30
申请号:CN202210740614.8
申请日:2022-06-28
Applicant: 杭州电子科技大学
Abstract: 本发明属于图像处理领域,公开了一种基于DSP的实时视频拼接方法,采用select操作方式定向选择数据,借助gather和scatter指令将不连续RAM地址中的数据加载到向量寄存器中;图像配准算法部分:在匹配前设定阈值预筛选特征点,基于汉明距离进行特征点匹配。算法均使用SIMD指令集并行处理多数据,提高计算效率;采用PING‑PONG方式传输数据,旨在隐藏视频拼接过程中外部存储器访问的周期,从而有效提高数据吞吐量。最后,基于DAG生成算法调度表,在双DSP平台上并行执行ORB特征提取算法。本发明减少了计算复杂度;并为计算机视觉相关的算法在DSP平台上研究提供了参考。
-
公开(公告)号:CN115086682A
公开(公告)日:2022-09-20
申请号:CN202210662131.0
申请日:2022-06-13
Applicant: 杭州电子科技大学
IPC: H04N19/625 , H04N19/61 , H04N19/154 , H04N19/176
Abstract: 本发明属于感知视频编码技术领域,公开了一种基于熵掩蔽的DCT域恰可察觉失真模型构建方法,1:构建DCT域贝叶斯预测模型;1.1:利用中心块与周围块的纹理能量差来计算它们之间的相似度;1.2:利用周围块及其与中心块的相似度来构建DCT域贝叶斯预测模型;1.3:利用DCT域的TE块分类法将图像分为边缘块和非边缘块进行预测;2:构建熵掩蔽模型;2.1:通过当前块及其预测块得到预测残差;2.2:利用预测残差及当前块的DCT系数度量当前块的无序度;2.3:根据无序度构建EM效应的调节因子;3:构建EM‑JND模型。本发明模型更符合人眼视觉特性,能更好地隐藏有序纹理区域的噪声,在实践中更实用。
-
公开(公告)号:CN114222117A
公开(公告)日:2022-03-22
申请号:CN202111554648.X
申请日:2021-12-17
Applicant: 杭州电子科技大学
IPC: H04N19/103 , H04N19/14 , H04N19/147 , H04N19/172
Abstract: 本发明属于数字视频编解码领域,公开了一种基于视频特征的编码参数自适应选择方法,提出了一种参数取值算法,依据该算法能够确定出相对最优的参数取值,即使编码器达到更好的RD性能,同时达到更低的编码复杂度,实现了利用较小复杂度代价换取较大RD性能增益的目的。分析了ctu、subme这两个参数受视频特征影响的情况。同时,将不同尺寸CU的比例信息、量化系数QP作为特征参量来描述视频特征;此外,将P帧与B帧中的intra块的比例、帧间预测误差satd作为调节因子。分析了参数取值与视频特征间的变化关系,用统计建模的方法建立了参数取值与视频特征参量间的数学模型,从而建立了基于视频特征的参数自适应取值模型。
-
公开(公告)号:CN113361599A
公开(公告)日:2021-09-07
申请号:CN202110625964.5
申请日:2021-06-04
Applicant: 杭州电子科技大学
Abstract: 本发明属于视频处理、机器视觉技术领域,公开了一种基于感知特征参量度量的视频时域显著度度量方法,包括如下步骤:步骤1:视频时域运动信息的提取;步骤2:感知特征参量的度量及融合。本发明考虑了视频中五个影响HVS时域感知特性的参量,并分析它们的作用机理,提出相应的概率密度函数,使得能够定量度量这些参量导致的感知显著度与不确定度。本发明提出的利用感知信息论的方法来度量这些参量,将它们映射到统一尺度,解决了异质特征参量融合困难这一问题。本发明提出时域视觉感知显著度度量方法能够达到较好预期效果。
-
公开(公告)号:CN111010583B
公开(公告)日:2021-09-07
申请号:CN201911206004.4
申请日:2019-11-29
Applicant: 杭州电子科技大学
IPC: H04N19/895 , H04N19/176
Abstract: 本发明涉及一种基于残差分块的自适应多视点视频错误隐藏方法。新一代多视点视频编码标准MV‑HEVC一旦出现数据丢包,将影响与丢失帧相关联的所有帧,产生差错传播。本发明方法针对多视点视频中中间视点视频流丢包的现象,首先利用丢失块可用邻块的残差信息对丢失块进行残差重建,然后根据残差值对丢失块进行模式划分,划分结束后基于残差信息对丢失块划分后的子块进行重建顺序排序,最后基于重建顺序结合时空域信息和视点间信息重建丢失块。本方法结合了丢失块邻块的时空域信息和帧间信息,对于多视点视频的中间视点码流丢失问题有较好的重建效果。
-
公开(公告)号:CN113099226A
公开(公告)日:2021-07-09
申请号:CN202110384146.0
申请日:2021-04-09
Applicant: 杭州电子科技大学
IPC: H04N19/124 , H04N19/147 , H04N19/176 , H04N19/625
Abstract: 本发明公开了面向智慧法院场景的多层次感知视频编码算法优化方法,包括如下步骤:S1,构建多层次感知编码框架,通过结合内容自适应比特分配、时域感知量化控制和空域感知量化控制,实现感知码率控制,通过心理视觉率失真优化,实现有效帧内和帧间预测的模式决策,通过系数级心理视觉率失真优化量化,实现系数级感知量化;S2,模块间相关性分析,度量模块间相关性的定量参数,评估两个算法模块之间的影响程度,通过选择关键控制参数,将复杂的多模块优化转化为连续的单模块优化,确定多个可定制模块的算法决策顺序;S3,构建在线自适应参数模型,利用模块间的内在关联性构建内容自适应的参数计算模型。
-
公开(公告)号:CN111405265A
公开(公告)日:2020-07-10
申请号:CN202010214373.4
申请日:2020-03-24
Applicant: 杭州电子科技大学
IPC: H04N13/122 , H04N13/275
Abstract: 本发明公开了一种新型的图像绘制技术,包括以下步骤:3D图像变换;利用图像之间的深度差值来划分绘制不准确区域;设置图像的前景阈值和背景阈值;处理空洞。上述技术方案利用图像之间的深度差值来划分绘制不准确区域,根据图像的实际情况将图像中视觉冲击最明显的区域中的破损区域重新进行绘制,从而让图像的绘制区域变得更加清晰,减少最后一步填充空洞时空洞的个数,从而降低时间复杂度。
-
公开(公告)号:CN111405264A
公开(公告)日:2020-07-10
申请号:CN202010068774.3
申请日:2020-01-20
Applicant: 杭州电子科技大学
IPC: H04N13/122 , H04N13/128 , H04N13/15
Abstract: 本发明公开了一种基于深度调整的3D视频舒适度改善方法。解决了一般3D视频观看不舒适、视觉体验不佳的问题。本发明包括以下步骤:S1:对左视点图、右视点图的深度图都进行预处理,得到预处理图;S2:对预处理图进行深度滤波,得到滤波图;S3:对滤波图进行深度去纹理,得到去纹理图;S4:根据去纹理图进行虚拟视点绘制,获得虚拟右视点彩色图;S5:用虚拟右视点彩色图和原始视点图进行替换得到改善的3D视频。本发明的增益效果是降低了视差、梯度变化、纹理对观感体验的影响,实现了整体舒适度的改善。
-
公开(公告)号:CN108174208B
公开(公告)日:2020-05-12
申请号:CN201810144026.1
申请日:2018-02-12
Applicant: 杭州电子科技大学
IPC: H04N19/136 , H04N19/14 , H04N19/70
Abstract: 本发明公开了一种基于特征分类的高效视频编码方法。本发明首先选择一个视频序列的10帧作标准的HEVC编码,然后提取深度特征,梯度特征以及方差特征,将这些特征用SVM进行离线训练,得到SVM预测模型。然后对每一个视频序列进行编码,设置第1帧为在线学习帧;从第二帧开始作快速编码,先作边缘检测,判断当前CU是否为纹理复杂的CU。根据预测结果把当前CU分为三类:提前跳过划分的CU、提前终止划分的CU和不确定划分的CU。对不确定划分的CU再进行RDcost判断,若当前CU的RDcost小于同深度下的阈值RD_thrk,则提前终止CU划分,否则继续进行标准的率失真优化过程。本发明在保证比特率增加可忽略不计的情况下大大降低了编码复杂度。
-
公开(公告)号:CN110929679A
公开(公告)日:2020-03-27
申请号:CN201911234544.3
申请日:2019-12-05
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于GAN的无监督自适应行人重识别方法,包括如下步骤:步骤一,源域训练,在带有标签的源数据集上预训练CNN模型,通过采用批量归一化、一个全连接层、Adam优化器代替SGD,共同作用来训练CNN模型,解决了在源数据集上预训练CNN模型基线性能不足的问题;步骤二,自训练,采用所述预训练的CNN模型提取无标签目标数据集的特征,通过聚类获得伪标签,通过GAN来调整所述聚类,通过所述聚类获得的伪标签训练所述CNN模型。
-
-
-
-
-
-
-
-
-