基于三维高斯点云泼溅算法恢复高光细节的方法

    公开(公告)号:CN118736125A

    公开(公告)日:2024-10-01

    申请号:CN202410852687.5

    申请日:2024-06-28

    Applicant: 湖南大学

    Inventor: 蔡文瑞 周世哲

    Abstract: 本发明公开了一种基于三维高斯泼溅点云恢复高光细节的方法,包括:三维高斯点云初始化;构建高光恢复模型;生成点云高光球谐函数系数;读取训练数据集图像;高光球谐函数系数训练;高光恢复模型训练高光球谐函数损失计算。本发明利用不同视角图像之间的高光表现来进行高光细节恢复,使得高光恢复模型可以学习不同视角下每个高斯点的高光表现,准确合成原本点云丢失的高光细节。

    基于深度学习的从四足动物图片到二维动画的生成方法

    公开(公告)号:CN118736075A

    公开(公告)日:2024-10-01

    申请号:CN202410852240.8

    申请日:2024-06-28

    Applicant: 湖南大学

    Inventor: 金珑珑 周世哲

    Abstract: 本发明提供了一种基于神经网络的四足动物图像生成系统,包括输入层、目标检测卷积神经网络层、图像预处理层、关键点检测高分辨率神经网络层和输出层。其中,输入层接收原始图像数据,目标检测卷积神经网络层用于检测图像中的四足动物目标,图像预处理层对检测结果进行优化处理,关键点检测高分辨率神经网络层用于检测关键点信息,输出层生成检测结果,各层之间通过神经网络连接实现信息传递和处理。最终进行二维动画图像,高效地从四足动物图片中生成逼真的二维动画效果,提高了动画制作的效率和质量。

    基于像素区域无缝对调的图片编辑装置及方法

    公开(公告)号:CN108984084B

    公开(公告)日:2022-02-11

    申请号:CN201810851295.1

    申请日:2018-07-27

    Applicant: 湖南大学

    Inventor: 周世哲 周呈峰

    Abstract: 本发明提供了一种基于像素区域无缝对调的图片编辑装置及方法,其中,该装置包括:选择模块,选择至少一个图片中待交换的两个图片区域,且所述两个图片区域的形状一致;最优割缝模块,将所述两个图片区域的重心对齐,以重心对齐的对齐区域构建一图模型,并确定该图模型的最优割缝;可交换区域确定模块,将所述最优割缝与所述两个图片区域分别按重叠区域的相对位置进行重合,分别确定所述两个图片区域中的两个可交换区域;交换模块,在所述两个图片区域中,交换所述两个可交换区域中位置相同的像素点。本发明能够实现图片区域的位置交换,同时实现图像修复和组合,且操作简单,编辑得到的图片自然真实。

    一种基于Transformer模型的三维人体重建方法及系统

    公开(公告)号:CN114049435B

    公开(公告)日:2024-11-12

    申请号:CN202111314592.0

    申请日:2021-11-08

    Applicant: 湖南大学

    Abstract: 本发明公开一种基于Transformer模型的三维人体重建方法及系统,该方法步骤包括:S01.输入人体图像进行特征提取,得到图像特征;S02.对提取到的图像特征进行上采样得到采样后特征,输入至由多个残差块叠加构成的网络,提取得到关键点的局部特征;以及为网格中每个顶点生成局部特征;S03.对提取的图像特征进行全局特征提取;S04.使用图像特征预测参数化人体模型,得到人体网格以及对应的关键点位置;S05.将局部特征、全局特征与人体网格、关键点位置进行拼接,输入至Transformer模型中,以预测最终的网格顶点以及关键点位置。本发明具有实现方法简单、重建效率以及精度高等优点。

    一种多目标场景草图的实例分割方法

    公开(公告)号:CN117456189A

    公开(公告)日:2024-01-26

    申请号:CN202311594584.5

    申请日:2023-11-27

    Applicant: 湖南大学

    Inventor: 李骋昊 周世哲

    Abstract: 本发明公开了一种多目标场景草图的实例分割方法,其中包括如下步骤:模型设计:基于现有的自然图像实例分割网络结构,改进并设计多目标场景草图的网络模型。所述模型主要包括骨干网络、区域建议网络,区域对齐网络、目标检测网络、和实例分割网络五部分。模型训练:使用SketchyScene场景草图数据集样本和端到端方式训练模型,优化网络参数。模型测试:将待测试的多目标场景草图输入到训练好参数的模型中,通过模型计算得出实例分割结果。本发明解决了现有的自然图像领域的实例分割方法对多目标场景草图进行分割时存在的识别错误,分割不准确的问题,具有更高的准确率和更好的分割结果。

    一种基于Transformer模型的三维人体重建方法及系统

    公开(公告)号:CN114049435A

    公开(公告)日:2022-02-15

    申请号:CN202111314592.0

    申请日:2021-11-08

    Applicant: 湖南大学

    Abstract: 本发明公开一种基于Transformer模型的三维人体重建方法及系统,该方法步骤包括:S01.输入人体图像进行特征提取,得到图像特征;S02.对提取到的图像特征进行上采样得到采样后特征,输入至由多个残差块叠加构成的网络,提取得到关键点的局部特征;以及为网格中每个顶点生成局部特征;S03.对提取的图像特征进行全局特征提取;S04.使用图像特征预测参数化人体模型,得到人体网格以及对应的关键点位置;S05.将局部特征、全局特征与人体网格、关键点位置进行拼接,输入至Transformer模型中,以预测最终的网格顶点以及关键点位置。本发明具有实现方法简单、重建效率以及精度高等优点。

    姿势导引的风格保持人体图像生成方法

    公开(公告)号:CN112184542A

    公开(公告)日:2021-01-05

    申请号:CN202010691722.1

    申请日:2020-07-17

    Applicant: 湖南大学

    Abstract: 本发明提供了一种基于深层的条件生成对抗网络,自动生成特定人物在新的视点和不同姿势下的图像方法。本发明设计的损失功能将更好地保存原始图像可见的外观细节,且采用的神经网络能使从源图像中消失的身体部位产生幻象。其中,网络整体结构包含:一个U型网络生成器,结合可变自动编码器,以及一个可同时训练的鉴别器。本发明能够根据输入的源图像和N=17个关节的二维骨架姿势图像,训练模型生成所需姿势的同一个人的图像。针对大多数现有方法尚未能解决的颜色误解和纹理图案失真的问题,实验效果良好,无批量错误产出。本发明结合多尺度样式损失来解决纹理特征的一致性问题,很好地克服了部分遮挡问题,从而显著提高了结果的准确性。

    一种高效且稳健的人体图像与三维人体模型匹配技术

    公开(公告)号:CN110751679A

    公开(公告)日:2020-02-04

    申请号:CN201911014657.2

    申请日:2019-10-23

    Applicant: 湖南大学

    Inventor: 周世哲 蔡伟

    Abstract: 人体图像与三维人体模型之间的匹配可以转化为对应的人体形状在二维空间的对应关系,本发明发明了一种运行高效且稳健的形状匹配技术,解决了人体这种复杂形状之间精准匹配的难题。我们认为,形状匹配要充分考虑全局信息,也要建立局部的稀疏对应,为此提出了用于描述人体形状的低维形状描述符,我们的算法中利用该描述子捕获形状点集之间的位置关系,通过比较不同形状描述子之间的相似性,并结合边缘点的几何信息,能够大致地找到两个形状间点与点的对应关系。因此我们会对匹配结果集中的异常值将进行稳健处理,我们提出了一个基于测地距离的失真函数,该函数能有效的评估单独的点集双射对整个匹配结果的贡献,最终得到形状之间有意义的匹配。我们所提出的算法能快速得到匹配信息,并且具有良好的抗噪性与鲁棒性。

    由方向流引导的刺绣纹理生成技术

    公开(公告)号:CN118967904A

    公开(公告)日:2024-11-15

    申请号:CN202410935395.8

    申请日:2024-07-12

    Applicant: 湖南大学

    Inventor: 张巧灵 周世哲

    Abstract: 本发明提供了一种基于边缘切线流(Edge TangentFlow,ETF)和多进程处理的刺绣纹理生成技术。读取图像文件,转为灰度图并生成噪声图像。一方面,通过ETF算法,得到原图对应的平滑方向流并生成方向掩码。另一方面,通过在每行像素上分布不同灰度值来模拟绣线与绣线之间的阴影。创建多个进程,每个进程对应一张方向掩码,记录笔画信息并返回给主进程。再次创建多个进程,将笔画信息通过方向进行分组并传给子进程。每个子进程根据笔画信息生成笔画,绘制在高斯噪声背景画布上,进行纹理增强后返回画布。在主进程同样创建一个初始的高斯噪声背景画布,接收并叠加每个进程生成的灰度画布,最后将合成后的灰度纹理作为亮度层映射到原始彩色图像上,得到最终效果图。

    基于生成对抗网络的草图到浅浮雕模型生成的方法

    公开(公告)号:CN110766786A

    公开(公告)日:2020-02-07

    申请号:CN201910878715.X

    申请日:2019-09-18

    Applicant: 湖南大学

    Inventor: 刘泽宇 周世哲

    Abstract: 本发明了一种基于生成对抗网络的草图到浅浮雕模型生成的方法,其中包括以下步骤:模型设计:基于生成对抗网络结构,设计合理的网络模型。获取数据集,本方法通过对三维模型在不同视角下获得对应的草图和浅浮雕模型,并将获得的浅浮雕模型提取出其高度场保存为图片,建立草图-浮雕数据集。模型训练:将建立的数据集输入给设计的模型进行训练,优化生成网络和判别网络的参数。用户测试:通过对用户输入的草图进行特征的提取,生成网络输出对应的浅浮雕模型的高度场,然后将生成的高度场还原成浅浮雕模型。本发明使用生成对抗网络结构,能够将用户手绘草图生成对应的浅浮雕模型,得到的浅浮雕模型具有良好的视觉效果。

Patent Agency Ranking