-
公开(公告)号:CN111986106B
公开(公告)日:2023-10-13
申请号:CN202010749859.8
申请日:2020-07-30
Applicant: 南京大学
Abstract: 本发明公开了一种基于神经网络的高动态图像重建方法。该方法的具体步骤如下:(1)将多个LDR域的图像按照亮度高低排列,并选取参考图像。(2)利用伽玛变换转换LDR域的图像得到HDR域的图像。(2)将HDR域和LDR域的图像输入到特征提取网络中提取不同尺度的HDR域和LDR域的图像特征。(3)将HDR域和LDR域的图像特征输入到金字塔对齐网络,利用HDR域特征来计算对齐所需的偏移量,用所得偏移对齐HDR域和LDR域的图像特征。(4)对齐后的HDR域和LDR域图像特征经过融合网络,得到重建的HDR图像。利用本方法可以较好地处理输入图像组中的物体运动和视差,重建高主观质量的无伪影的HDR图像。
-
公开(公告)号:CN108492322B
公开(公告)日:2022-04-22
申请号:CN201810300362.0
申请日:2018-04-04
Applicant: 南京大学
Abstract: 本发明公开了一种基于深度学习预测用户视场的方法。步骤为:(1)将全景视频从球面映射到球内接立方体的6个面上,得到6个面对应的视频,分别生成视频的动态特征和显著度序列图,并进行分块和编号;(2)根据动态特征判断视频内容视点切换剧烈程度w;(3)用头盔记录用户的头部转向并对其进行处理;(4)通过w值的大小选择预测网络,用网络预测得到用户后n帧视频帧的视场,处理可得到与视场重合的视频块编号;(5)渲染和传输预测得到的视频块,重复步骤直到预测的为最后n帧。本发明的方法减小了全景图畸变对于输入的视频特征的影响,同时加入了视频信息的预判分级,能以较高的准确度预测用户在VR HMD中观看视频时的视场。
-
公开(公告)号:CN119810119A
公开(公告)日:2025-04-11
申请号:CN202411881858.3
申请日:2024-12-19
Applicant: 中国移动紫金(江苏)创新研究院有限公司 , 中国移动通信集团江苏有限公司 , 中国移动通信集团有限公司 , 南京大学
Abstract: 本申请提供一种图像处理方法、系统、电子设备、存储介质及程序产品,涉及人工智能技术领域,其中,该方法包括:将与待处理的目标图像相关的用户需求信息输入第一预设模型中,得到至少一个第一参数,所述至少一个第一参数包括对所述目标图像中目标对象的描述信息;基于所述目标对象的描述信息,生成所述目标对象对应的分割掩码;基于所述分割掩码,生成所述目标图像中所述目标对象对应的阿尔法通道;根据所述阿尔法通道和所述目标对象的深度信息,对所述目标图像中的背景区域进行处理,得到目标背景;合成所述目标对象和所述目标背景,得到处理后的目标图像。
-
公开(公告)号:CN111986106A
公开(公告)日:2020-11-24
申请号:CN202010749859.8
申请日:2020-07-30
Applicant: 南京大学
Abstract: 本发明公开了一种基于神经网络的高动态图像重建方法。该方法的具体步骤如下:(1)将多个LDR域的图像按照亮度高低排列,并选取参考图像。(2)利用伽玛变换转换LDR域的图像得到HDR域的图像。(2)将HDR域和LDR域的图像输入到特征提取网络中提取不同尺度的HDR域和LDR域的图像特征。(3)将HDR域和LDR域的图像特征输入到金字塔对齐网络,利用HDR域特征来计算对齐所需的偏移量,用所得偏移对齐HDR域和LDR域的图像特征。(4)对齐后的HDR域和LDR域图像特征经过融合网络,得到重建的HDR图像。利用本方法可以较好地处理输入图像组中的物体运动和视差,重建高主观质量的无伪影的HDR图像。
-
公开(公告)号:CN108492322A
公开(公告)日:2018-09-04
申请号:CN201810300362.0
申请日:2018-04-04
Applicant: 南京大学
Abstract: 本发明公开了一种基于深度学习预测用户视场的方法。步骤为:(1)将全景视频从球面映射到球内接立方体的6个面上,得到6个面对应的视频,分别生成视频的动态特征和显著度序列图,并进行分块和编号;(2)根据动态特征判断视频内容视点切换剧烈程度w;(3)用头盔记录用户的头部转向并对其进行处理;(4)通过w值的大小选择预测网络,用网络预测得到用户后n帧视频帧的视场,处理可得到与视场重合的视频块编号;(5)渲染和传输预测得到的视频块,重复步骤直到预测的为最后n帧。本发明的方法减小了全景图畸变对于输入的视频特征的影响,同时加入了视频信息的预判分级,能以较高的准确度预测用户在VR HMD中观看视频时的视场。
-
-
-
-