-
公开(公告)号:CN112714322A
公开(公告)日:2021-04-27
申请号:CN202011575272.6
申请日:2020-12-28
Applicant: 福州大学
Abstract: 本发明涉及一种面向游戏视频的帧间参考优化方法,包括以下步骤:步骤S1:构建背景建模分类模型,背景检测匹配模型;步骤S2:在编码器预测编码前预测其背景是否已建模并检测匹配出相似建模背景;步骤S3:在预测编码时,利用匹配出的相似建模背景进行帧间编码的参考帧优化;步骤S4:预测编码结束后,获取当前帧的编码信息,作为后续帧预测是否需要优化的输入,并输出编码帧;步骤S5:更新背景建模与分类模型,预测该背景是否可能复现,若为可能复现的帧则进行更新建模、分类;步骤S6:对每一帧的编码都重复步骤S2‑S5直至所有帧编码结束;步骤S7:将所有编码帧输出为完整的视频码流。本发明利用游戏视频的复现性质对编码码率进行压缩,改善编码的性能。
-
公开(公告)号:CN111966226A
公开(公告)日:2020-11-20
申请号:CN202010917408.0
申请日:2020-09-03
Applicant: 福州大学
Abstract: 本发明涉及一种基于补偿型长短期记忆网络的触感通信容错方法及系统,根据触感数据特性,设计了补偿型LSTM数据预测模型,在接收数据时,利用该补偿型LSTM模型对通信过程中丢失的或者被压缩去掉的数据进行预测重构,恢复原序列。本发明通过加入补偿门对输出值进行补偿,进一步降低预测误差,提高触感通信系统稳定性。
-
公开(公告)号:CN109819252A
公开(公告)日:2019-05-28
申请号:CN201910214227.9
申请日:2019-03-20
Applicant: 福州大学
IPC: H04N19/124 , H04N19/147 , H04N19/177
Abstract: 本发明涉及一种不依赖GOP结构的量化参数级联方法,首先通过研究编码中帧与帧之间参考比重关系,构建不依赖GOP结构的帧间失真依赖模型;其次,选取适当的参数,使用神经网络获取失真依赖模型的系数;最后,基于编码总体率失真代价最小的原则,利用神经网络输出实现量化参数分配方案,给各个视频帧分配最佳量化参数。本发明能够实现在编码过程不依赖GOP结构的前提下,保证编码的性能。
-
公开(公告)号:CN108200426A
公开(公告)日:2018-06-22
申请号:CN201810101216.5
申请日:2018-02-01
Applicant: 福州大学
IPC: H04N17/00 , H04N21/43 , H04N21/433
CPC classification number: H04N17/00 , H04N21/4307 , H04N21/433
Abstract: 本发明涉及一种综合同步误差和缓冲时间与主观质量的关系模型建立方法。模拟了音频和视频同步、音频和字幕同步以及视频缓冲时间,构建主观感知意见分和同步误差以及缓冲时间的数学模型;首次综合了音频和视频同步误差、音频和字幕同步误差以及视频缓冲时间到一个视频当中;根据构建的模型传输不同内容的视频,达到了提高用户体验的目的;主观评价,采用的是ITU-T P.910中定义的绝对等级评分法ACR-SS,测试环境严格按照标准中给出的进行布置,组织了多名观测者进行主观评价,并对评价结果进行处理,得到平均主观意见分。对评价的结果进行验证,保证了实验结果的准确性。
-
公开(公告)号:CN107707913A
公开(公告)日:2018-02-16
申请号:CN201710909152.7
申请日:2017-09-29
Applicant: 福州大学
IPC: H04N19/105 , H04N19/147
Abstract: 本发明提供一种快速视频编码中防帧内误差传递方法,用于解决快速编码中帧内CU的误差传递问题。首先,本发明研究快速编码视频中帧内不同区域CU的不确定性问题。其次,基于CU预测的不确定性,推导出它对总体编码质量的影响关系。最后,通过各区域的误差传递系数,对原始CU分配的半径进行调整,以在基本不增加编码时间的条件下,降低率编码失真代价,提高编码质量。
-
公开(公告)号:CN114023020B
公开(公告)日:2023-06-30
申请号:CN202111273808.3
申请日:2021-10-29
Applicant: 福州大学
IPC: G08B6/00 , H04N19/90 , H04N19/625 , H04N19/124 , H04N19/18
Abstract: 本发明涉及一种基于数据特性与改进型回归的触感数据混合压缩系统,包括编码器和解码器;所述编码器,通过对触感数据进行DCT压缩,之后对DCT数据进行放大后截取,再将数据进行改进型回归编码,最后进行量化;所述解码器,对编码传输的数据进行逆运算,得到触感数据。本发明可以有效提高传输效率的同时还能消除触感通信过程中失真带来的影响,极大限度地提高性能。
-
公开(公告)号:CN115760632A
公开(公告)日:2023-03-07
申请号:CN202211497560.3
申请日:2022-11-27
Applicant: 福州大学
Abstract: 本发明涉及一种基于多尺度混合模型的无人机航拍图去雾方法。首先,对无人机航拍图进行预处理,采用压缩激发模块SE,对图片特征进行压缩,从而获得全局感受野,捕捉长程信息;其次,采用不同扩张因子的空洞卷积模块DCLs设计上下文扩展模块CDB,提取并融合多尺度的语义特征,获取丰富的上下文信息;最后,利用训练模型预测出的结果和原始无人机航拍图对比,判断去雾任务的完成情况,在真实无人机航拍数据集上使用YOLOv4可视化去雾结果的目标检测性能。基于上述步骤,将基于多尺度混合模型的单图去雾方法部署在无人机预处理阶段。本发明方法较采用其他单图去雾算法相比本发明在视觉性能和目标检测精度上表现最好,并且处理速度较快,优势明显。
-
公开(公告)号:CN115660946A
公开(公告)日:2023-01-31
申请号:CN202211343425.3
申请日:2022-10-31
Applicant: 福州大学至诚学院
Abstract: 本发明提出一种基于深度自适应的发型属性迁移方法及系统,包括以下步骤:步骤S1:通过人脸单目测距算法估计输入图像的估计深度差;步骤S2:通过人脸关键点检测模型RCPR检测待调整图像的人脸关键点;步骤S3:通过深度差与人脸关键点计算面部基准点与偏移量;步骤S4:通过面部基准点与偏移量对齐人脸深度;步骤S5:通过快速发型属性编辑模块编辑输入图像的发型,输出目标图像的潜在编码;步骤S6:通过StyleGANv2生成器将目标图像的潜在编码映射到图像域得到目标图像。本发明对输入图像的特征潜码优化,在通过预先训练好的生成网络重建图像的方法,可以在无需重新训练的情况下实现精准的发型属性编辑效果,满足用户的基本需求。
-
公开(公告)号:CN115631527A
公开(公告)日:2023-01-20
申请号:CN202211366264.X
申请日:2022-10-31
Applicant: 福州大学至诚学院
Abstract: 本发明提出一种基于角度自适应的发型属性编辑方法及系统,包括以下步骤:步骤S1:将输入的图像通过StyleGAN潜码编码器,得到输入图像的潜在编码W+;步骤S2:通过人脸关键点检测2D人脸的关键点,初始化人脸的3D关键点并且使用Perspective‑n‑Point算法求解人脸姿态;步骤S3:通过将x,y,z各个方向与其参考发型的潜码输入到潜码编辑模块;步骤S4:通过生成器重建,得到人脸角度对齐后的图像。本发明对输入图像的特征潜码优化,在通过预先训练好的生成网络重建图像的方法,可以在无需重新训练的情况下实现精准的发型属性编辑效果,满足用户的基本需求。
-
公开(公告)号:CN110737339B
公开(公告)日:2021-11-02
申请号:CN201911029362.2
申请日:2019-10-28
Applicant: 福州大学
Abstract: 本发明涉及一种基于深度学习的视觉—触觉交互模型构建方法。首先,基于设计的三种虚拟交互任务,获得不同任务下视觉注意力和触感控制之间的相关性,进行跨模态行为分析;其次,根据相关性,利用LSTM神经网络建立视觉—触觉交互预测模型,实现不同任务的交互模型,并进行性能对比和评价;最后,利用训练模型预测出的结果在虚拟控制任务中进行实施,判断任务中目标的完成情况。本发明方法较采用传统的基于机器学习的训练模型相比,基于深度学习的LSTM神经网络模型预测效果最好,并在非随机任务中任务完成度较高,优势明显。
-
-
-
-
-
-
-
-
-