-
公开(公告)号:CN112967365B
公开(公告)日:2022-03-15
申请号:CN202110163213.6
申请日:2021-02-05
Applicant: 浙江大学
Abstract: 本发明公开了一种基于用户感知优化的深度图生成方法,包括以下步骤:输入一张平面或2D图像,利用神经网络算法生成粗略深度图,利用神经网络算法或人工标注出图像中物体的区域并生成分割图,所述物体的区域为分割块;计算图像的特征,结合图像的特征计算注意力分数;通过粗略深度图和注意力分数进行能量函数设计,得出优化深度图;对所述优化深度图进行迭代调整,解决分割块的边界深度差异的矛盾,并输出所得的深度图。本发明无需立体摄像机,够输入一张普通平面图片,生成一张效果更佳的深度图,实现立体的图像显示,降低了立体的图像出图的成本;采用基于用户感知优化的方法,解决了立体图生成方法中产出的深度图模糊、效果不佳的问题。
-
公开(公告)号:CN108805908B
公开(公告)日:2020-11-03
申请号:CN201810587766.2
申请日:2018-06-08
Applicant: 浙江大学
Abstract: 本发明公开了一种基于时序网格流叠加的实时视频稳像方法,包括:(1)将获得的每个视频帧下采样到固定尺寸;(2)以第一帧作为初始参考帧,获取参考帧特征点;(3)提取并匹配视频帧特征点与参考帧特征点,获得视频帧特征点的最佳匹配特征点,构建全局单应性矩阵;(4)利用全局单应性矩阵剔除一部分视频帧特征点;(5)对视频帧分布网格,根据视频帧特征点获得网格顶点的运动矢量;(6)以周期为单位更换参考帧,采用时域叠加的方法根据每个周期的参考帧获得每个周期内的网格顶点的运动矢量;(7)根据网格顶点的运动矢量计算像素的运动矢量,根据像素的运动矢量对该像素进行调整。该方法保持镜头在整个视频序列中完全静止。
-
公开(公告)号:CN111143615A
公开(公告)日:2020-05-12
申请号:CN201911293473.4
申请日:2019-12-12
Applicant: 浙江大学
Abstract: 本发明公开了一种短视频情感类别的识别装置,包括:(1)获取待识别的目标短视频,划分目标短视频为多个镜头片段,提取每个镜头片段的帧画面特征,提取目标短视频的镜头特征和动态特征;(2)调用所述情感效价模型对输入的所述帧画面特征进行计算,输出目标短视频的情感效价值;(3)调用所述情感激励模型对输入的由所述帧画面特征、镜头特征、动态特征组成的组合特征进行计算,输出目标短视频的情感激励值;(4)计算由所述情感效价值与所述情感激励值构建的V-A情感空间与各情感类别坐标中心的欧式距离,依据所述欧式距离确定该目标短视频的情感类别。该识别装置能够快速准确识别短视频的情感类别。
-
公开(公告)号:CN107464213B
公开(公告)日:2019-11-08
申请号:CN201710655784.5
申请日:2017-08-03
Applicant: 浙江大学
IPC: G06T3/00
Abstract: 本发明公开了一种基于单色色盘的Lab空间映射的重着色方法,通过建立源图像与目标图像之间的色彩转换映射,使得重着色后的目标图像与单色盘的色彩风格相近。该方法包括:对输入的源图像和单色盘进行数据处理,包括提取源图像的主色调,获取源图像的a*b*通道色彩平面分布、主色调和色盘的色彩特征参数;根据所得数据,在a*b*通道平面内进行直线拟合、提取特征点、建立目标直线;构建a*b*空间的色彩转换矩阵;利用转换矩阵对源图像进行色彩转换的重着色。该方法能够实现任意给定色彩的风格着色,只需用户提供源图像和单色色盘,不需提供额外的参考图像,转换过程为矩阵运算简单高效,达到很好的重着色效果。
-
公开(公告)号:CN108805908A
公开(公告)日:2018-11-13
申请号:CN201810587766.2
申请日:2018-06-08
Applicant: 浙江大学
Abstract: 本发明公开了一种基于时序网格流叠加的实时视频稳像方法,包括:(1)将获得的每个视频帧下采样到固定尺寸;(2)以第一帧作为初始参考帧,获取参考帧特征点;(3)提取并匹配视频帧特征点与参考帧特征点,获得视频帧特征点的最佳匹配特征点,构建全局单应性矩阵;(4)利用全局单应性矩阵剔除一部分视频帧特征点;(5)对视频帧分布网格,根据视频帧特征点获得网格顶点的运动矢量;(6)以周期为单位更换参考帧,采用时域叠加的方法根据每个周期的参考帧获得每个周期内的网格顶点的运动矢量;(7)根据网格顶点的运动矢量计算像素的运动矢量,根据像素的运动矢量对该像素进行调整。该方法保持镜头在整个视频序列中完全静止。
-
公开(公告)号:CN112529048B
公开(公告)日:2022-12-06
申请号:CN202011323355.6
申请日:2020-11-23
Applicant: 浙江大学
IPC: G06V10/776 , G06V20/40
Abstract: 本发明公开了一种于感知体验的产品展示视频辅助设计方法和装置,包括:(1)采集产品展示视频,标注视频属性、视频特征以及感知体验;(2)对产品展示视频进行分析,确定视频属性与感知体验之间的属‑感相关关系,感知体验与视频特征之间的感‑特相关关系,同时以视频特征以及感知体验作为样本数据,构建感知体验评估模型;(3)创造阶段,基于输入的视频属性和属‑感相关关系和感‑特相关关系,确定与视频属性相关的感知体验与视频特征并依据此提供视频制作创造指导;(4)迭代阶段,提取待评估视频的视频特征,并根据感知体验评估模型确定待评估视频的感知体验,依据感知体验提供参考视频和视频特征比较结果,以此提供视频优化建议。
-
公开(公告)号:CN114205677B
公开(公告)日:2022-10-14
申请号:CN202111442144.9
申请日:2021-11-30
Applicant: 浙江大学
IPC: H04N21/466 , H04N21/44 , H04N21/4402 , H04N21/441 , H04N21/8352 , G06V20/40 , G06V10/74 , G06K9/62 , G06V10/82 , G06N3/08
Abstract: 本发明公开了一种基于原型视频的短视频自动编辑方法,包括:对输入视频进行帧采样得到多个基体特征,将多个基本特征输入至随机森林或决策树模型得到带有标签的高级特征输入视频;从原型数据库中选择与高级特征输入视频的视频相似度分数最高的原型视频;计算原型视频与原型数据库中其他原型视频的兼容性距离度量得到动态兼容因子,基于动态兼容因子将满足视频相似度分数阈值的原型视频作为最终原型视频;基于视频结构相似性度量,在每个高级特征目标子视频中选择与每个目标镜头的视频相似度分数最高的高级特征镜头作为候选镜头,采用维特比算法选择最终候选镜头,从而得到最终短视频。该方法能够帮助用户灵活、简单的制作所需风格的短视频。
-
公开(公告)号:CN113111906B
公开(公告)日:2022-07-12
申请号:CN202110209512.9
申请日:2021-02-24
Applicant: 浙江大学
Abstract: 本发明公开了一种基于单对图像训练的条件生成对抗网络模型,包括以下步骤:基于条件生成对抗网络模型架构构建图像翻译模型;选取一张训练图像,并对所述图像进行语义标注获得语义标注图;使用选取的训练图像和标注的语义图,训练图像翻译模型,得到一个基于单对图像训练的条件生成对抗网络模型。首先,本发明在训练图像翻译模型时,仅需要一对训练数据,解决了传统图像翻译模型对大数据的依赖问题,更加适用于实际应用场景,方便用户根据实际需求训练自己的个性化生成模型。其次,通过使用数据增强机制,使得训练好的模型具有更强的鲁棒性;此外,本发明的模型使用混合训练机制,有效解决了多尺度模型中的误差累积问题,提高了生成图像的质量。
-
公开(公告)号:CN114005077A
公开(公告)日:2022-02-01
申请号:CN202111644391.7
申请日:2021-12-30
Applicant: 浙江大学
Abstract: 本发明公开了一种观众评价数据驱动的无声产品视频创作辅助方法,包括将视频初始样本集进行标签一致性筛选得到产品视频样本集,基于产品类别分为外观型和功能型产品视频样本集,并构建优质案例库,通过XGBoost方法构建评价预测模型,通过SHAP算法构建评价预测模型解释器,从优质案例库中筛选出匹配用户提供的素材、视频属性和产品类型的优质案例,通过预测模型解释器得到优质案例的优质特点以辅助用户完成视频创作,通过评价预测模型预测视频成片的评价结果,通过模型解释器获得视频成片SHAP值为负的特征以及特征优化的目标值域,辅助用户调整该特征的特征值完成视频成片的优化。该方法能够提供优质参考案例,并对用户制作的视频成片进行评估与优化提示。
-
公开(公告)号:CN108898165B
公开(公告)日:2021-11-30
申请号:CN201810599682.0
申请日:2018-06-12
Applicant: 浙江大学
IPC: G06K9/62
Abstract: 本发明公开了一种平面广告风格的识别方法,包括以下步骤:根据平面广告的特性,将平面广告图片分割成主体、文字以及背景三部分,并提取每部分的颜色直方图、GIST描述符、显著度图、二进制元类特征以及方向梯度直方图,将其作为特征,对模型进行训练和评估,获得能够精确识别平面广告风格的平面广告风格识别模型,然后利用该平面广告风格识别模型识别平面广告图片风格。该方法能够准确地识别出平面广告风格,满足广告自动化设计中对于快速准确风格识别的要求。
-
-
-
-
-
-
-
-
-