-
公开(公告)号:CN112597695B
公开(公告)日:2022-05-03
申请号:CN202011410140.8
申请日:2020-12-03
Applicant: 浙江大学
IPC: G06F30/27 , G06V10/762 , G06V10/764 , G06K9/62 , G06F111/06
Abstract: 本发明涉及一种基于感知特征聚类的计算机辅助设计方法及系统,属于设计图形处理的计算机技术领域。该方法包括:(1)接收当前设计方案的图像与主题标签,获取当前设计方案的多个感知维度的评价结果;(2)显示图像、感知维度的评价结果及筛选限制条件设置界面;(3)基于对筛选限制条件的设置,从数据库中筛选出与设计方案的主题标签同类的设计方案,作为待分类设计方案群组;(4)基于聚类算法对待分类设计方案群组进行聚类分析,获取经聚类分析之后的所有设计方案簇;(5)按照欧式距离在显示界面上,显示设计方案簇与当前设计方案。该辅助设计方案能有效地辅助设计师对当前设计方案进行优化,可广泛用于平面广告等的设计领域中。
-
公开(公告)号:CN114332874A
公开(公告)日:2022-04-12
申请号:CN202111647561.7
申请日:2021-12-30
Applicant: 浙江大学
IPC: G06V30/244 , G06T5/00
Abstract: 本发明公开了一种基于众包的书法修复方法,包括从待修复书法图分离完整结构字体和不完整结构字体,利用专家众包的方法对不完整结构字体进行修复得到修复字体集,通过凸包轮廓特征模块筛选与不完整结构凸包轮廓相近的修复字体得到第二修复字体集,通过笔画特征模块从第二修复字体集筛选与完整结构笔画特征相近的第三修复字体集,通过字体结构分布特征模块从三修复字体集筛选与不完整结构关键位置区域相近的最终修复字体,完成不完整结构字体的修复。该方法需要较少真实数据,且修复效率较高,利用该方法修复的字体具有较好的书法字体的细节特征。
-
公开(公告)号:CN114205677A
公开(公告)日:2022-03-18
申请号:CN202111442144.9
申请日:2021-11-30
Applicant: 浙江大学
IPC: H04N21/466 , H04N21/44 , H04N21/4402 , H04N21/441 , H04N21/8352 , G06V20/40 , G06V10/74 , G06K9/62 , G06V10/82 , G06N3/08
Abstract: 本发明公开了一种基于原型视频的短视频自动编辑方法,包括:对输入视频进行帧采样得到多个基体特征,将多个基本特征输入至随机森林或决策树模型得到带有标签的高级特征输入视频;从原型数据库中选择与高级特征输入视频的视频相似度分数最高的原型视频;计算原型视频与原型数据库中其他原型视频的兼容性距离度量得到动态兼容因子,基于动态兼容因子将满足视频相似度分数阈值的原型视频作为最终原型视频;基于视频结构相似性度量,在每个高级特征目标子视频中选择与每个目标镜头的视频相似度分数最高的高级特征镜头作为候选镜头,采用维特比算法选择最终候选镜头,从而得到最终短视频。该方法能够帮助用户灵活、简单的制作所需风格的短视频。
-
公开(公告)号:CN113111906A
公开(公告)日:2021-07-13
申请号:CN202110209512.9
申请日:2021-02-24
Applicant: 浙江大学
Abstract: 本发明公开了一种基于单对图像训练的条件生成对抗网络模型,包括以下步骤:基于条件生成对抗网络模型架构构建图像翻译模型;选取一张训练图像,并对所述图像进行语义标注获得语义标注图;使用选取的训练图像和标注的语义图,训练图像翻译模型,得到一个基于单对图像训练的条件生成对抗网络模型。首先,本发明在训练图像翻译模型时,仅需要一对训练数据,解决了传统图像翻译模型对大数据的依赖问题,更加适用于实际应用场景,方便用户根据实际需求训练自己的个性化生成模型。其次,通过使用数据增强机制,使得训练好的模型具有更强的鲁棒性;此外,本发明的模型使用混合训练机制,有效解决了多尺度模型中的误差累积问题,提高了生成图像的质量。
-
公开(公告)号:CN107464213A
公开(公告)日:2017-12-12
申请号:CN201710655784.5
申请日:2017-08-03
Applicant: 浙江大学
IPC: G06T3/00
Abstract: 本发明公开了一种基于单色色盘的Lab空间映射的重着色方法,通过建立源图像与目标图像之间的色彩转换映射,使得重着色后的目标图像与单色盘的色彩风格相近。该方法包括:对输入的源图像和单色盘进行数据处理,包括提取源图像的主色调,获取源图像的a*b*通道色彩平面分布、主色调和色盘的色彩特征参数;根据所得数据,在a*b*通道平面内进行直线拟合、提取特征点、建立目标直线;构建a*b*空间的色彩转换矩阵;利用转换矩阵对源图像进行色彩转换的重着色。该方法能够实现任意给定色彩的风格着色,只需用户提供源图像和单色色盘,不需提供额外的参考图像,转换过程为矩阵运算简单高效,达到很好的重着色效果。
-
公开(公告)号:CN114332874B
公开(公告)日:2025-04-15
申请号:CN202111647561.7
申请日:2021-12-30
Applicant: 浙江大学
IPC: G06V30/244 , G06T5/77
Abstract: 本发明公开了一种基于众包的书法修复方法,包括从待修复书法图分离完整结构字体和不完整结构字体,利用专家众包的方法对不完整结构字体进行修复得到修复字体集,通过凸包轮廓特征模块筛选与不完整结构凸包轮廓相近的修复字体得到第二修复字体集,通过笔画特征模块从第二修复字体集筛选与完整结构笔画特征相近的第三修复字体集,通过字体结构分布特征模块从三修复字体集筛选与不完整结构关键位置区域相近的最终修复字体,完成不完整结构字体的修复。该方法需要较少真实数据,且修复效率较高,利用该方法修复的字体具有较好的书法字体的细节特征。
-
公开(公告)号:CN111915703B
公开(公告)日:2023-05-09
申请号:CN201910390118.2
申请日:2019-05-10
Applicant: 浙江大学
Abstract: 本公开涉及一种图像生成方法和装置。该方法包括:接收用户输入的第一语义分割图像,所述第一语义分割图像中包括至少一类目标场景物体;确定所述第一语义分割图像对应的第一边缘线条图像,所述第一边缘线条图像中包括毎类目标场景物体的边缘信息;将所述第一语义分割图像和所述第一边缘线条图像输入第一条件生成对抗神经网络模型,生成所述第一语义分割图像对应的具备目标风格的图像,所述第一条件生成对抗神经网络模型是根据具备所述目标风格的多个样本图像训练得到的。本公开可以实现根据用户输入的语义分割图像,快速为用户生成具备目标风格且场景内容丰富完整的图像。
-
公开(公告)号:CN111613195B
公开(公告)日:2022-12-09
申请号:CN201910132652.3
申请日:2019-02-22
Applicant: 浙江大学
IPC: G10H1/00
Abstract: 本公开涉及音频拼接方法、装置及存储介质。该方法包括:确定各个待拼接音频的音频片段;对于各个待拼接音频中的第一待拼接音频的第一音频片段和第二待拼接音频的第二音频片段,根据第一音频片段的相邻音频片段和第二音频片段的相邻音频片段中的至少一项,确定第一音频片段与第二音频片段之间的和谐度;根据各个待拼接音频中的每两个待拼接音频的音频片段之间的和谐度,确定每两个待拼接音频之间的匹配的音频片段;根据每两个待拼接音频之间的匹配的音频片段,对各个待拼接音频的音频片段进行拼接。本公开能够自动化地进行音频拼接,并能够提高音频片段之间的拼接自然程度。
-
公开(公告)号:CN114005077B
公开(公告)日:2022-05-27
申请号:CN202111644391.7
申请日:2021-12-30
Applicant: 浙江大学
Abstract: 本发明公开了一种观众评价数据驱动的无声产品视频创作辅助方法,包括将视频初始样本集进行标签一致性筛选得到产品视频样本集,基于产品类别分为外观型和功能型产品视频样本集,并构建优质案例库,通过XGBoost方法构建评价预测模型,通过SHAP算法构建评价预测模型解释器,从优质案例库中筛选出匹配用户提供的素材、视频属性和产品类型的优质案例,通过预测模型解释器得到优质案例的优质特点以辅助用户完成视频创作,通过评价预测模型预测视频成片的评价结果,通过模型解释器获得视频成片SHAP值为负的特征以及特征优化的目标值域,辅助用户调整该特征的特征值完成视频成片的优化。该方法能够提供优质参考案例,并对用户制作的视频成片进行评估与优化提示。
-
公开(公告)号:CN114119803A
公开(公告)日:2022-03-01
申请号:CN202210097140.X
申请日:2022-01-27
Applicant: 浙江大学
IPC: G06T11/00
Abstract: 本发明公开了一种基于因果图谱的场景图像生成方法,包括:获得风格一致的带有标框标注的真实场景图像数据集,基于标框标注构建因果子图,并基于因果子图的实体表示特征,通过线性变换和祖先采样得到具有因果关系的风格表示特征,基于原始全局掩码和通过实体、因果、像素询征与实体键征匹配得到放缩因子构建实体全局掩码,基于全局掩码和风格表示特征通过图像生成器得到生成场景图像,通过因果损失函数和合页损失函数训练因果子图和图像生成器得到最终全局因果子图和最终图像生成器,将绘制的标框标注布局依次输入最终全局因果子图和最终图像生成器得到具有因果关系的场景图像。利用该方法能够快速、高效地获得具有因果关系的复杂场景图像。
-
-
-
-
-
-
-
-
-