-
公开(公告)号:CN117379775A
公开(公告)日:2024-01-12
申请号:CN202311312743.8
申请日:2023-10-11
Applicant: 南开大学
IPC: A63F13/31 , A63F13/335 , A63F13/358 , H04L67/131
Abstract: 本发明公开了基于视频增强和比特率自适应算法的云游戏视频传输方法,将边缘计算、基于强化学习的比特率自适应算法与视频增强技术结合。本发明将在网络波动时通过强化学习决策传输比特率,通过降低帧率和分辨率,减少传输的视频数据量,避免卡顿,然后通过超分辨率和插帧提高游戏视频质量。使用边缘计算架构将视频增强从游戏玩家的终端设备卸载到边缘云服务器中,避免终端算力不足的问题。本发明可以在网络波动的情况下保证高质量稳定的云游戏服务,提高云游戏用户的游戏体验。
-
公开(公告)号:CN111401868B
公开(公告)日:2022-07-01
申请号:CN202010197861.9
申请日:2020-03-19
Applicant: 南开大学
Abstract: 本发明公开的一种费用最小的区块链链下交易路由算法,以交易费用最小化为基准,在模拟小世界网络中首先动态构建节点路由表,使得交易沿着交易费用最小的路径进行传播。交易过程中,初始节点将来自目标节点的加密信息以及交易消息按照已构建好的路由进行发送,中间节点接受来自上一节点的交易,并转发至下一节点,以上交易视为为未验证交易,账户的余额并不改变。当收到交易目标节点发送的验证密钥解密加密信息成功后,将交易视为验证交易,改变账户余额,交易完成。本发明可以使得用户支付给中间节点的总路径费用最小。
-
公开(公告)号:CN118175393A
公开(公告)日:2024-06-11
申请号:CN202410257614.1
申请日:2024-03-07
Applicant: 南开大学
IPC: H04N21/462 , H04N21/442 , H04N21/437 , H04N21/478 , H04N21/44 , A63F13/31 , G06N3/082 , G06N3/092
Abstract: 本发明公开了一种基于尾延迟探测和帧生成的云游戏视频传输方法,属于网络视频传输优化和图像生成技术领域,将强化学习和经过自适应剪枝的帧生成模型结合,绕过传统云游戏流程中对游戏视频帧的编码、网络传输、解码等阶段,达到补偿云游戏帧尾延迟的目的。本发明根据历史延迟的多维度特征,通过强化学习探测云游戏运行中的尾延迟。在尾延迟即将发生时,触发客户端的帧生成模型生成视频帧,以避免高尾延迟引起的云游戏卡顿问题,并且通过自适应剪枝算法对帧生成模型进行剪枝,以适应具有有限且异构算力的客户端设备。本发明可以减小云游戏中的尾延迟,缓解卡顿现象,提升云游戏的用户体验。
-
公开(公告)号:CN111401868A
公开(公告)日:2020-07-10
申请号:CN202010197861.9
申请日:2020-03-19
Applicant: 南开大学
Abstract: 本发明公开的一种费用最小的区块链链下交易路由算法,以交易费用最小化为基准,在模拟小世界网络中首先动态构建节点路由表,使得交易沿着交易费用最小的路径进行传播。交易过程中,初始节点将来自目标节点的加密信息以及交易消息按照已构建好的路由进行发送,中间节点接受来自上一节点的交易,并转发至下一节点,以上交易视为为未验证交易,账户的余额并不改变。当收到交易目标节点发送的验证密钥解密加密信息成功后,将交易视为验证交易,改变账户余额,交易完成。本发明可以使得用户支付给中间节点的总路径费用最小。
-
公开(公告)号:CN118199797A
公开(公告)日:2024-06-14
申请号:CN202410257490.7
申请日:2024-03-07
Applicant: 南开大学
IPC: H04L1/00 , H04N21/44 , H04N21/4402
Abstract: 一种5G直播场景下的网内前向纠错编码方法,属于5G直播场景下的网内编码领域,以最大化用户体验质量为基准,在网内使用可编程交换机进行前向纠错编码。在5G直播场景下,网内可编程交换机在上行网络受限时对数据包进行前向纠错编码,传输部分冗余数据,以避免数据包丢失造成的直播视频卡顿现象,然后视频服务器通过解码还原数据包,将视频流下发给用户。使用可编程交换机可以将前向纠错编码从主播端的终端设备卸载到网内,有效减缓主播端的编码压力,同时可编程交换机使用线速编码和处理数据包,可以减少冗余编码对直播传输时延的影响。本发明可在5G直播场景中上行带宽受限的情况下,保证实时视频流传输的稳定性,从而提升了直播用户的体验质量。
-
公开(公告)号:CN110324664B
公开(公告)日:2021-06-04
申请号:CN201910612434.X
申请日:2019-07-11
Applicant: 南开大学
IPC: H04N21/234 , H04N21/2343 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提供了一种基于神经网络的视频补帧方法及其模型的训练方法;基于预设的训练集合确定当前的训练参考帧后,将训练参考帧输入至预设的初始模型;通过特征提取网络生成训练参考帧的预设层级数量的初始特征图;通过特征融合网络将预设层级数量的初始特征图融合为融合特征图;再将融合特征图输入至输出网络,输出第一训练帧和第二训练帧之间的训练补充视频帧;通过预设的预测损失函数确定训练补充视频帧的损失值;继续向初始模型输入下一组训练参考帧进行训练,直至初始模型中的参数收敛,结束训练,得到视频补帧模型。本发明通过特征提取、特征融合过程获取到参考帧全面的特征信息,从而得到补帧效果较好的视频补充帧,从而提高用户观影体验。
-
公开(公告)号:CN110324664A
公开(公告)日:2019-10-11
申请号:CN201910612434.X
申请日:2019-07-11
Applicant: 南开大学
IPC: H04N21/234 , H04N21/2343 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提供了一种基于神经网络的视频补帧方法及其模型的训练方法;基于预设的训练集合确定当前的训练参考帧后,将训练参考帧输入至预设的初始模型;通过特征提取网络生成训练参考帧的预设层级数量的初始特征图;通过特征融合网络将预设层级数量的初始特征图融合为融合特征图;再将融合特征图输入至输出网络,输出第一训练帧和第二训练帧之间的训练补充视频帧;通过预设的预测损失函数确定训练补充视频帧的损失值;继续向初始模型输入下一组训练参考帧进行训练,直至初始模型中的参数收敛,结束训练,得到视频补帧模型。本发明通过特征提取、特征融合过程获取到参考帧全面的特征信息,从而得到补帧效果较好的视频补充帧,从而提高用户观影体验。
-
-
-
-
-
-