-
公开(公告)号:CN111770346A
公开(公告)日:2020-10-13
申请号:CN202010523987.0
申请日:2020-06-10
Applicant: 杭州电子科技大学
IPC: H04N19/593 , H04N19/513 , H04N19/176 , H04N19/182 , H04N19/96 , H04N19/895
Abstract: 本发明公开了一种基于显著性的立体三维视频错误隐藏方法。传统的错误隐藏技术在视频流在传输过程中发生整帧丢失时恢复效果差。本发明方法首先获取丢失帧的运动显著性图、深度显著性图,深度边缘显著性图,然后融合运动显著性图和深度显著性图并块化,再与深度边缘显著性图合并得到最终显著性图,并进行显著等级划分。对高显著等级的区域采用视点间搜索像素填补和候选运动矢量补偿恢复,对中显著等级的区域采用时域搜索像素填补和视点间搜索像素填补,对低显著等级区域采用时域帧像素拷贝填补。本发明方法除了结合3D—HEVC特性提出新的错误隐藏方法,考虑了视频画面的显著性,对立体视频在网络传输中发生的整帧丢失现象有很好的恢复效果。
-
公开(公告)号:CN111010583A
公开(公告)日:2020-04-14
申请号:CN201911206004.4
申请日:2019-11-29
Applicant: 杭州电子科技大学
IPC: H04N19/895 , H04N19/176
Abstract: 本发明涉及一种基于残差分块的自适应多视点视频错误隐藏方法。新一代多视点视频编码标准MV-HEVC一旦出现数据丢包,将影响与丢失帧相关联的所有帧,产生差错传播。本发明方法针对多视点视频中中间视点视频流丢包的现象,首先利用丢失块可用邻块的残差信息对丢失块进行残差重建,然后根据残差值对丢失块进行模式划分,划分结束后基于残差信息对丢失块划分后的子块进行重建顺序排序,最后基于重建顺序结合时空域信息和视点间信息重建丢失块。本方法结合了丢失块邻块的时空域信息和帧间信息,对于多视点视频的中间视点码流丢失问题有较好的重建效果。
-
公开(公告)号:CN109120934A
公开(公告)日:2019-01-01
申请号:CN201811117434.4
申请日:2018-09-25
Applicant: 杭州电子科技大学
IPC: H04N19/147 , H04N19/19 , H04N19/124
Abstract: 本发明公开了一种考虑帧间依赖的帧级量化参数计算方法。首先建立基于帧间依赖的失真预测模型(ΔD-ΔQp模型),然后将该模型运用到率失真优化中,求得率失真代价最小时的拉格朗日乘子λ,最后由λ-Qp关系,求出最优帧级量化参数。其中的ΔD-ΔQp模型不仅体现了帧间依赖,并在建模过程中将视频内容考虑了进来,所以该模型可以根据视频内容自适应调整。本方法具有实施复杂度低的特点,方法中使用的参量均是从视频编码过程中获得,不需要复杂的计算,基本不会增加视频编码复杂度,所以不会造成系统延时。
-
公开(公告)号:CN108965879A
公开(公告)日:2018-12-07
申请号:CN201811016478.8
申请日:2018-08-31
Applicant: 杭州电子科技大学
IPC: H04N19/13 , H04N19/147 , H04N19/567
CPC classification number: H04N19/147 , H04N19/13 , H04N19/567
Abstract: 本发明公开了一种空时域自适应恰可察觉失真的度量方法,其特征在于包括如下步骤:步骤一、将模式掩蔽效应PM和亮度适应性LA进行融合,得到空域JND阈值JNDS;步骤二、将相对运动I(vr)、背景运动U(vg)、时域持续时间I(τ)和残差波动强度U(δ)四个时域感知参量进行融合得到时域JND调节权重系数z;步骤三、在空域JND阈值JNDS基础上,用时域JND调节权重系数z对其进行调整,得到空时域JND阈值JNDST。
-
公开(公告)号:CN120011368A
公开(公告)日:2025-05-16
申请号:CN202510140396.8
申请日:2025-02-08
Applicant: 杭州电子科技大学丽水研究院 , 上上德盛集团股份有限公司 , 浙江阿季云智能科技有限公司
Abstract: 本发明涉及知识图谱技术领域,公开了一种基于知识图谱的语义关联和逻辑规则的推理方法,该方法包括:获取跨职能部门的第一数据集,构建跨部门知识图谱;从跨部门知识图谱中提取指标节点,识别语义冲突指标,生成指标语义冲突列表,基于指标语义冲突列表,构建语义映射后的跨部门知识图谱;获取跨职能部门的第二数据集,基于第二数据集和语义映射后的跨部门知识图谱,得到融合后的跨部门知识图谱和语义关联度矩阵;依据语义关联度矩阵,动态调整融合后的跨部门知识图谱的各节点和边的权重,生成跨部门协同知识图谱;基于跨部门协同知识图谱生成跨部门协同决策建议;本发明显著提升了跨部门协同决策的效率和质量。
-
公开(公告)号:CN118450124B
公开(公告)日:2025-02-11
申请号:CN202410585773.4
申请日:2024-05-13
Applicant: 杭州电子科技大学
IPC: H04N19/124 , H04N19/31 , H04N19/33 , H04N19/167 , H04N21/6373 , H04N21/2187 , G06V10/25 , G06V10/28 , G06V10/40
Abstract: 本发明公开了一种支持群智感知的端边云紧凑视频编码方法及系统,在云边端系统中,对单摄像头和跨摄像头语义目标图片进行优选,基于目标跟踪和图片优先,选取包含语义信息最大的语义图片框,对语义目标对象在其时域轨迹上的图片框序列进行特征提取,并将得到的紧凑特征用于语义目标对象的重构,实现视频群智语义目标紧凑编码,采集用于反馈控制的控制参量,聚焦感兴趣或语义感知相对重要的区域,用于指导多个摄像头之间协同码率分配及量化控制优化,实现视频群智多摄像头端边云协同优化编码。在针对海量摄像头视频数据进行以图搜图业务中,本发明对海量摄像头视频数据进行高效编码,支持端边云高效存储传输和分析。
-
公开(公告)号:CN119313696A
公开(公告)日:2025-01-14
申请号:CN202411373764.5
申请日:2024-09-29
Applicant: 杭州电子科技大学
IPC: G06T7/136 , G06T7/194 , G06N3/126 , G06V10/44 , G06N3/096 , G06T7/00 , G06V10/774 , G06V10/776 , G06N3/006
Abstract: 本发明公开了一种基于君主策略改进遗传算法的多阈值图像分割方法。本发明方法基于遗传算法的进化原理,通过模拟自然选择和遗传学中的基因交叉与变异过程,确保在图像分割的多阈值选择问题中,能够有效探索解空间并收敛到最优解。利用生物学原理,保证了算法在解决复杂图像分割任务中的高效性与准确性。本发明方法优化了多阈值选择,能够在不同灰度级图像之间实现精确分割,尤其适用于具有多个组织类型或复杂结构的图像,可以有效识别复杂边界和重叠结构,通过自动调整分割参数提高识别准确性。
-
公开(公告)号:CN118691507A
公开(公告)日:2024-09-24
申请号:CN202410682107.2
申请日:2024-05-29
Applicant: 杭州电子科技大学
IPC: G06T5/77 , G06T5/60 , G06N3/0475 , G06N3/0464 , G06N3/045 , G06N3/048 , G06N3/094
Abstract: 本发明公开了一种虚拟视点合成图像的空洞填充方法。本发明方法首先构建生成器,生成器包括下采样层、DCSW Transformer层、特征聚合残差层、全局‑局部融合模块和上采样层;然后构建鉴别器,鉴别器采用基于块的生成对抗网络PatchGAN,包括5个卷积层;构建总损失函数,由L1损失、边缘损失、感知损失、HVS总损失和对抗损失构成;训练生成器和鉴别器,配合生成器网络重构空洞区域的内容和纹理;最后利用训练后的生成器对原始图像进行空洞填充。本发明在虚拟视点空洞填充任务中的具有高效性和优越性能,能够广泛应用于不同的虚拟视点合成场景,具有显著实用价值和推广潜力。
-
公开(公告)号:CN118646896A
公开(公告)日:2024-09-13
申请号:CN202411023544.X
申请日:2024-07-29
Applicant: 杭州电子科技大学
IPC: H04N19/59 , H04N19/52 , H04N19/192 , H04N19/86 , H04N19/30 , H04N19/169 , H04N19/102
Abstract: 本发明公开了一种全景视频插帧方法。本发明方法通过全局网络和融合网络实现,每个网络完成特定功能,共同完成视频插帧任务。全局网络包括ERP特征提取模块、串并行编解码模块、自适应运动扭曲预测模块和细化网络模块。ERP特征提取模块采用两个单独的多尺度特征提取模块,自适应运动扭曲预测模块包括权重预测层、水平偏移预测层、垂直偏移预测层和掩膜预测层,细化网络模块包括三层编码器和三层解码器。融合网络包括局部中间帧生成模块、纹理提取模块和多通道融合模块。本发明设计的网络结构能更好地捕获全景图像的特征和扭曲运动轨迹,从而显著提高了全景视频插帧算法的性能和效果,以满足不断增长的全景视频应用需求。
-
公开(公告)号:CN115297316B
公开(公告)日:2024-09-06
申请号:CN202210963297.6
申请日:2022-08-11
Applicant: 杭州电子科技大学
IPC: H04N13/271 , G06T5/50 , G06T7/13 , G06T5/20 , G06N3/0464 , G06N3/08 , G06T5/60
Abstract: 本发明方法公开了语境特征融合的虚拟视点合成图像空洞填充方法。本发明方法首先以参考视图、参考深度图和相机信息为单位,检测出深度图的前景信息并进行前景扩散,然后根据3D变换和参考信息绘制出虚拟视点图像,最后在生成对抗网络中加入具有语境特征融合的注意力生成空洞区域的像素。本发明根据3D‑warping、空洞和前景之间的位置关系和注意力机制原理,改进了已有的注意力提取特征的方法,尤其是在视频序列中包含快速运动的物体在修复工作中起重要作用。本发明加强了同一空洞区域的连续特征块之间的联系,消除前景信息对背景区域修复的影响,可以直接应用在3D视频处理,3D视频/图像物体修复等领域。
-
-
-
-
-
-
-
-
-