-
公开(公告)号:CN103049896A
公开(公告)日:2013-04-17
申请号:CN201210581311.2
申请日:2012-12-27
Applicant: 浙江大学
Abstract: 本发明公开了一种三维模型的几何数据和纹理数据自动配准算法,包括(1)针对三维模型在各个视点获取对应的二维图像以及若干三维几何点,针对每个视点将所包含的三维几何点进行三角网格化处理,得到一个待拼接的网格模型;(2)对相邻的网格模型之间的重叠对应点做合并处理,对相邻的网格模型之间的缝隙进行缝合得到拼接后网格模型;(3)将各个视点获取的二维图像进行拼接融合得到融合后的二维图像;(4)建立拼接后网格模型中各三维几何点与融合后的二维图像像素坐标之间的一一对应关系,实现三维模型的几何数据和纹理数据自动配准。本发明的方法操作简单,纹理和几何数据配准精度高。
-
公开(公告)号:CN101826215B
公开(公告)日:2012-05-09
申请号:CN201010150566.4
申请日:2010-04-19
Applicant: 浙江大学
Abstract: 本发明公开了一种实时二级光线跟踪的并行渲染方法,包括:(1)通过构建八叉树,对需要进行渲染的模型空间的场景数据进行划分;(2)光线包中有效光线的比例高于阈值时,进行步骤(3)的操作,否则进行步骤(5)的操作;(3)对光线包沿模型空间的三个坐标轴进行遍历;(4)将子光线包与叶子节点内的面片依次做相交测试,得到与面片有相交关系的光线;(5)对光线包中的每条光线分别进行相交测试得到与光线起点最近且与光线相交的三角面片;(6)根据模型空间需要进行渲染的模型的材质类型,对子光线包内的光线进行分类,依次进行渲染。本发明并行渲染方法可有效利用硬件的并行计算能力,减少光线遍历和相交所需时间。
-
公开(公告)号:CN101431691B
公开(公告)日:2011-06-15
申请号:CN200810162584.7
申请日:2008-12-04
Applicant: 浙江大学
Abstract: 本发明一种高动态范围图像的快速并行压缩方法,包括利用CUDA在GPU中并行执行如下步骤:(1)将原始的HDR图像分割成若干图像块;(2)将每一个图像块分为RGB通道部分和E通道部分;(3)将RGB通道部分的颜色数据线性地从对数形式的RGB空间转换到YCbCr空间,再进行压缩;(4)将E通道部分的数据进行量化,得到量化数据;(5)将步骤(3)的压缩后的颜色数据和步骤(4)的量化数据进行熵编码,得到压缩后的数据。本发明方法提供快速便捷精美的高真实感效果展示,同时解决了在有限带宽、状况复杂的因特网环境下大多数用户都可以快速便捷地通过网络查看高高动态范围图像展示。
-
公开(公告)号:CN101826215A
公开(公告)日:2010-09-08
申请号:CN201010150566.4
申请日:2010-04-19
Applicant: 浙江大学
Abstract: 本发明公开了一种实时二级光线跟踪的并行渲染方法,包括:(1)通过构建八叉树,对需要进行渲染的模型空间的场景数据进行划分;(2)光线包中有效光线的比例高于阈值时,进行步骤(3)的操作,否则进行步骤(5)的操作;(3)对光线包沿模型空间的三个坐标轴进行遍历;(4)将子光线包与叶子节点内的面片依次做相交测试,得到与面片有相交关系的光线;(5)对光线包中的每条光线分别进行相交测试得到与光线起点最近且与光线相交的三角面片;(6)根据模型空间需要进行渲染的模型的材质类型,对子光线包内的光线进行分类,依次进行渲染。本发明并行渲染方法可有效利用硬件的并行计算能力,减少光线遍历和相交所需时间。
-
公开(公告)号:CN101415117A
公开(公告)日:2009-04-22
申请号:CN200810122314.3
申请日:2008-11-18
Applicant: 浙江大学
IPC: H04N7/26
Abstract: 本发明公开了一种基于GPGPU的高真实感图像的传输方法,包括如下步骤:(A)采用像素编码器将原始HDR图像数据转换成对数域形式,再对数域形式的数值转换成n位无符号整数,得到的无符号整数形式存储的图像数据;(B)将无符号整数形式存储的图像数据发送到图像编码器进行图像压缩编码得到压缩的HDR图像数据;(C)解码时将压缩的HDR图像数据先用图像解码器解码,然后再将结果送到像素解码器进行解码,转换成原始的HDR图像数据。本发明通过利用具有高度并行特性和强计算能力的GPU,在有限带宽、状况复杂的因特网环境下大多数用户都可以快速便捷地通过网络查看高真实感图像展示。
-
公开(公告)号:CN119206051A
公开(公告)日:2024-12-27
申请号:CN202411152867.9
申请日:2024-08-21
Applicant: 浙江大学
Inventor: 赵磊 , 马骋 , 林怀忠 , 张占杰 , 李光远 , 孙嘉锴 , 尹浩霖 , 蓝泽铧 , 莫竣程 , 张权威 , 王永康 , 陈嘉芙 , 褚天易 , 饶晨 , 焦涵 , 贾世安 , 张玮婧 , 邢卫
Abstract: 本申请提供一种基于3D高斯溅射的稀疏输入场景重建方法及计算机程序产品,基于3D高斯溅射的稀疏输入场景重建方法包括:将同一场景不同视角的2D图像输入colmap软件,获得3D高斯的初始化点云,初始化点云用于确定场景重建开始时的高斯点数量与属性;获得高斯点A和高斯点B的衡量距离,高斯点A为任意一个高斯点,高斯点B为与高斯点A最邻近的高斯点;若衡量距离大于第一阈值,则在高斯点A和高斯点B之间添加高斯点C;基于2D图像规范3D高斯的场景重建,获得重建的三维场景。本申请补充添加了高斯点C之后,初始化点云得以完善,减少了三维场景重建时对大量输入图片的依赖,在三维场景重建优化的过程中,使重建的三维场景保持较好的丰富度。
-
公开(公告)号:CN114782264B
公开(公告)日:2024-11-12
申请号:CN202210395242.X
申请日:2022-04-14
IPC: G06T5/77 , G06T5/60 , G06N3/0455 , G06N3/08
Abstract: 本申请公开了一种盲图像修复的方法、计算机设备、可读存储介质和程序产品,所述方法包括,将待修复图像输入训练完成的盲图像修复网络,得到修复结果,其特征在于,盲图像修复网络包括第一编码器和解码器:获得真实图像以及与真实图像相对应的退化图像;将退化图像以及参照数据均输入到第一编码器进行处理,参照数据是对真实图像通过跨空间对比损失模块处理后得到;将第一编码器的计算结果输入到解码器进行处理,输出修复图像;将修复图像与真实图像相比较并更新盲图像修复网络进行循环训练,直至修复图像与真实图像相近,得到训练完成的盲图像修复网络。本申请盲图像修复方法不仅可以消除噪声,还可以自动修复高级语义中的退化图像。
-
公开(公告)号:CN113191936B
公开(公告)日:2024-09-03
申请号:CN202110266870.3
申请日:2021-03-11
Applicant: 浙江大学
Abstract: 本申请涉及一种交互式图像纹理迁移转换方法、装置、计算机设备和存储介质。所述方法包括:获取目标语义图、风格化源图像以及与风格化源图像对应的源语义图;将目标语义图、风格化源图像以及源语义图输入深度神经网络得到目标图像,目标图像为目标语义图以风格化源图像为参照进行纹理迁移转换得到。其中,深度神经网络包括依次连接的多个纹理迁移层,各纹理迁移层均包括编码器、纹理迁移单元以及解码器,且纹理迁移层的输出作为相连的下一纹理迁移层的其中一输入,直至最后一层的纹理迁移层输出的结果作为目标图像。本方法可兼顾图像纹理转换的速度、质量和通用性。
-
公开(公告)号:CN118158489A
公开(公告)日:2024-06-07
申请号:CN202410261768.8
申请日:2024-03-07
Applicant: 浙江大学
IPC: H04N21/81 , H04N21/44 , H04N21/466 , H04N5/272
Abstract: 本申请涉及一种基于3D高斯模型实现的高效流式传输自由视点视频生成方法、计算机设备和程序产品,高效流式传输自由视点视频生成方法,包括:获得三维场景前一帧的3D高斯模型,3D高斯模型为3D高斯的集合,对于一个3D高斯,其包括空间上的一个位置点、以及该位置点属性;构建包括感知机的神经网络,位置点以位置哈希编码的方式记录,感知机接收位置哈希编码,并将位置哈希编码映射为3D高斯的属性变化,属性变化包括用来表示3D高斯位移的第一部分、以及用来表示3D高斯旋转的第二部分;在后一帧利用3D高斯位移、以及3D高斯旋转,更新3D高斯,渲染得到参考图像;利用参考图像和样本图像的损失,优化神经网络,利用优化后的神经网络生成后帧图像。
-
公开(公告)号:CN118014822A
公开(公告)日:2024-05-10
申请号:CN202311868166.0
申请日:2023-12-29
Applicant: 浙江大学
IPC: G06T3/04 , G06N3/0455 , G06N3/0464 , G06N3/0895
Abstract: 本申请涉及一种基于对比学习和注意力机制的风格迁移方法、计算机设备、可读存储介质和程序产品,风格迁移方法包括:构建包括编码器、解码器的编码器‑解码器结构,编码器‑解码器结构在训练完成后用于将风格图像的艺术风格迁移至内容图像以生成风格化图像,训练过程包括:将内容图像输入第一编码器获得内容特征,将风格图像输入第一编码器获得局部风格特征,将风格图像输入第二编码器获得全局风格特征;将局部风格特征和全局风格特征耦合后获得局部‑全局风格特征;将局部‑全局风格特征和内容特征耦合后获得风格化特征;将风格化特征输入解码器获得风格化图像,根据风格化图像和风格图像的风格差异损失,训练编码器‑解码器结构直至达成预期。
-
-
-
-
-
-
-
-
-