基于三维人脸几何结构的无参考质量评估方法及装置

    公开(公告)号:CN119741304A

    公开(公告)日:2025-04-01

    申请号:CN202510262624.9

    申请日:2025-03-06

    Abstract: 本发明公开了一种基于三维人脸几何结构的无参考质量评估方法及装置,涉及计算机视觉领域,方法包括:三维人脸网格模型重建;计算映射关键点和提取关键点之间的欧几里得距离,获得几何一致性分数;用三维人脸分割算法划分人脸区域,计算高斯曲率得到区域曲率分数;计算模型表面的平滑度,检测模型表面是否存在不自然的突起或瑕疵,获得平滑度分数;将几何一致性分数、区域曲率分数和平滑度分数按照加权比例进行融合,输出三维人脸网格模型的综合质量分数。本发明无需依赖数据库中的标准人脸模型,能够基于人脸几何特征和区域性分析对单个重建的三维人脸网格模型质量进行全面评估,适用于智能美容、精准医疗等个性化重建场景。

    一种无人机森林火灾风险区块检测方法及系统

    公开(公告)号:CN119027845B

    公开(公告)日:2025-02-14

    申请号:CN202411514321.3

    申请日:2024-10-29

    Abstract: 本发明涉及图像处理与人工智能技术领域,公开了一种无人机森林火灾风险区块检测方法及系统,方法包括:构建基于区块分类的目标检测模型并进行训练,利用训练好的基于区块分类的目标检测模型实现无人机森林火灾风险区块检测;所述基于区块分类的目标检测模型利用区块映射器无人机图像中的不同区块映射为区块特征;利用多阶段采样网络对区块特征进行多种尺度的采样,并利用降维映射层进行尺度对齐,获得多尺度区块特征;通过哈达玛积融合多尺度区块特征,利用区块分类器将融合后的多尺度区块特征映射至区块类别概率。本发明以区域分类方式实现风险区块的定位,避免了现有技术因精确定位导致的庞大计算量,延长无人机可用时间。

    基于分层时空感知的屏幕内容视频质量评价方法及装置

    公开(公告)号:CN118865075B

    公开(公告)日:2024-12-03

    申请号:CN202411319739.9

    申请日:2024-09-23

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于分层时空感知的屏幕内容视频质量评价方法及装置,涉及视频评价领域,包括:提取屏幕内容视频中的若干个碎片化视频和若干个关键帧并输入经训练的屏幕内容视频质量评价模型,每个关键帧输入显著性计算模块筛选出若干个显著视频块,每个显著视频块输入双通道卷积神经网络,得到每个阶段的多层特征并输入块级质量评估模块,经过空间门特征增强模块,得到每个阶段的增强特征并输入块级质量聚合模块,得到每个视频块的块级质量分数;采用自适应加权策略计算得到空域感知质量分数;碎片化视频输入时域感知质量评估支路,得到时域感知质量分数,两者结合计算得到屏幕内容视频的质量分数,解决现有视频质量评价方法可靠性差的问题。

    一种基于姿势对抗网络的人脸视频生成方法及系统

    公开(公告)号:CN118379777B

    公开(公告)日:2024-11-22

    申请号:CN202410807403.0

    申请日:2024-06-21

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于姿势对抗网络的人脸视频生成方法及系统,涉及图像处理技术领域,方法包括:构建人脸视频生成模型,包括图像编码器、音频编码器、头部运动预测模块、姿势编码器和解码器,所述人脸视频生成模型接收人脸图像和语音音频,生成人脸说话视频;获取训练数据集并对人脸视频生成模型进行预训练;构建唇型同步判别器作为判别器,对预训练人脸视频生成模型进行生成对抗训练;利用训练好的人脸视频生成模型实现人脸视频生成。本发明利用音频信号的动态特性对头部运动进行建模,并结合生成对抗网络与唇型同步判别器提高人脸视频的唇形同步精度,同时兼顾视频的逼真度,使得其更加真实、自然,从而为各种应用场景提供了更多的灵活性。

    一种基于联合特征的MIV沉浸式视频率失真优化方法

    公开(公告)号:CN118381920B

    公开(公告)日:2024-09-17

    申请号:CN202410807401.1

    申请日:2024-06-21

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于联合特征的MIV沉浸式视频率失真优化方法,涉及视频编码领域,包括:计算像素的几何失真权重;将帧内划分为纹理区域与深度区域,提取纹理区域的纹理复杂度特征、纹理区域的边缘特征和深度区域的边缘特征,自适应融合纹理区域的边缘特征和深度区域的边缘特征以得到融合边缘特征;使用纹理复杂度特征与融合边缘特征组成的联合特征,计算得到纹理区域的失真度量缩放因子与深度区域的失真度量缩放因子;根据纹理区域的失真度量缩放因子、失真度量缩放因子和几何失真权重计算新拉格朗日乘子;基于新拉格朗日乘子实现沉浸式视频的率失真优化。本发明可以使得最终渲染的沉浸式视频具有更好的渲染质量与率失真性能。

    一种基于强感知Transformer架构的缺损视频修复方法及系统

    公开(公告)号:CN118469876A

    公开(公告)日:2024-08-09

    申请号:CN202410912771.1

    申请日:2024-07-09

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于强感知Transformer架构的缺损视频修复方法及系统,涉及视频处理技术领域,方法包括以下步骤:特征提取模块接收待修复的缺损视频帧序列,采用卷积神经网络对视频帧进行特征提取,输出第一特征;强感知Transformer模块接收第一特征,采用交叉堆叠的局部感知Transformer和全局感知Transformer结构对第一特征进行纹理信息建模和结构信息建模,输出第二特征;重构模块接收第二特征,采用反卷积层进行视频帧重建,输出修复后视频帧序列。本发明采用交叉堆叠的局部感知Transformer和全局感知Transformer进行纹理信息和结构信息建模,有效解决现阶段缺损视频修复方法中存在修复区域缺乏细节纹理、全局结构与局部纹理不匹配的问题,实现更好的修复效果。

Patent Agency Ranking