-
公开(公告)号:CN119444955A
公开(公告)日:2025-02-14
申请号:CN202510032187.1
申请日:2025-01-09
Applicant: 科大讯飞股份有限公司
Abstract: 本申请公开了一种图像渲染方法、装置、设备和存储介质,该方法包括:获取三维点云,三维点云包括多个三维点,三维点的属性包括位置属性和色彩相关属性,色彩相关属性包括颜色信息,还包括透明度和反射率中的至少一者;从三维点云中确定目标视角下的渲染图中各像素点分别对应的点集;基于各像素点对应的点集中三维点的属性,确定各像素点的像素值。上述方案,能够提升渲染效果。
-
公开(公告)号:CN119996766A
公开(公告)日:2025-05-13
申请号:CN202510036966.9
申请日:2025-01-09
Applicant: 科大讯飞股份有限公司
IPC: H04N21/44 , H04N21/845 , H04N21/81
Abstract: 本申请提出一种过渡视频生成方法、虚拟角色视频切换方法、装置及设备,应用于人工智能技术领域。其中,该过渡视频生成方法包括:获取第一动画视频和第二动画视频,第一动画视频和第二动画视频是同一虚拟角色的不同动画视频;在第一动画视频的时间轴上,确定打断时间点;根据打断时间点处的视频帧和第二动画视频中的视频帧,生成打断时间点对应的过渡视频,过渡视频用于从播放第一动画视频切换至播放第二动画视频的过渡阶段。从而,通过设置打断时间点和提前生成过渡视频的方式,提高虚拟角色动画视频切换的流畅性。
-
公开(公告)号:CN119323625B
公开(公告)日:2025-05-09
申请号:CN202411866722.5
申请日:2024-12-18
Applicant: 科大讯飞股份有限公司
IPC: G06T11/60 , G10L13/08 , G06V40/20 , G06F16/732 , G06F16/783
Abstract: 本申请提出一种合成视频的方法、电子设备及计算机程序产品。该合成视频的方法包括:获取包含第一虚拟对象的第一视频以及包含目标虚拟对象的肢体动作的第二视频,针对第一视频,去除目标视频段中第一虚拟对象的目标肢体部位,得到待合成视频,目标视频段为第一视频中对应动作插入时段的视频段;基于第二视频和目标视频段的时序对应关系,将第二视频各视频帧的目标肢体部位拼接到待合成视频各视频帧的目标肢体部位缺失处,生成合成视频。由于第二视频仅包含目标肢体部位,因此,可以做到虚拟对象与肢体动作的解耦。在虚拟对象为虚拟人物的情况下,制作第二视频/动作视频时,无需考虑人物主要身体部位的穿着打扮,甚至无需考虑人物的身份。
-
公开(公告)号:CN119922351A
公开(公告)日:2025-05-02
申请号:CN202411771790.3
申请日:2024-12-04
Applicant: 科大讯飞股份有限公司
IPC: H04N21/234 , G10L25/63 , G10L15/25 , G06T5/50
Abstract: 本申请提出一种视频生成方法、装置、电子设备和计算机程序产品,该方法能够基于复刻对象的音频和参考图像,生成复刻对象的虚拟形象视频。具体可以根据音频和参考图像,生成复刻对象口唇区域的动态图像,结合口唇区域的动态图像、参考图像和音频对应的情绪状态,得到复刻对象的动态图像;或者,从音频和参考图像中提取得到复刻特征,根据复刻特征和音频对应的情绪状态生成复刻对象的动态图像,然后根据音频和复刻对象的动态图像,生成复刻对象的虚拟形象视频,实现复刻特定对象的虚拟形象的目的。
-
公开(公告)号:CN119741405A
公开(公告)日:2025-04-01
申请号:CN202510260633.4
申请日:2025-03-06
Applicant: 科大讯飞股份有限公司
Abstract: 本申请公开了一种动作数据生成方法、装置、设备、存储介质和程序产品,涉及人工智能技术领域,包括:获得目标语音的音频特征以及目标语音对应的文本;基于对文本的语义理解,确定文本中需要数字人同步执行肢体动作的目标文本段,每个目标文本段对应的肢体动作的类别,以及每个目标文本段对应的待生成的骨架动作序列中的各个动作帧的位置编码;对应每个目标文本段,至少将音频特征、该目标文本段对应的肢体动作的类别以及该目标文本段对应的各个动作帧的位置编码作为扩散模型的控制条件,通过扩散模型生成与该目标文本段对应的骨架动作序列。本申请提高了基于骨架动作序列驱动的数字人的肢体动作与语音内容的匹配度。
-
公开(公告)号:CN119544905A
公开(公告)日:2025-02-28
申请号:CN202411674436.9
申请日:2024-11-21
Applicant: 科大讯飞股份有限公司
IPC: H04N7/01 , H04N21/2343 , H04N21/4402
Abstract: 本申请提出一种视频插帧方法、装置、电子设备、存储介质及产品,该方法基于运动模糊预测算法,预测第一图像帧和第二图像帧之间的插入帧的运动模糊权重;其中,第一图像帧和第二图像帧为待插帧视频中的相邻图像帧;基于插帧生成算法,利用运动模糊权重、第一图像帧的像素信息和第二图像帧的像素信息,生成插入帧的第一像素信息;运动模糊预测算法和插帧生成算法是以对第一样本图像帧和第二样本图像帧进行样本插入帧生成时的损失函数最小为目标训练确定的。本方案在确定相邻图像帧之间的插入帧时,对相邻图像帧进行运动模糊分析,运动模糊效果能够捕捉到运动路径和运动速度,从而能够提高插入帧生成准确度,保证插帧效果,进而提高视频流畅度。
-
公开(公告)号:CN119323625A
公开(公告)日:2025-01-17
申请号:CN202411866722.5
申请日:2024-12-18
Applicant: 科大讯飞股份有限公司
IPC: G06T11/60 , G10L13/08 , G06V40/20 , G06F16/732 , G06F16/783
Abstract: 本申请提出一种合成视频的方法、电子设备及计算机程序产品。该合成视频的方法包括:获取包含第一虚拟对象的第一视频以及包含目标虚拟对象的肢体动作的第二视频,针对第一视频,去除目标视频段中第一虚拟对象的目标肢体部位,得到待合成视频,目标视频段为第一视频中对应动作插入时段的视频段;基于第二视频和目标视频段的时序对应关系,将第二视频各视频帧的目标肢体部位拼接到待合成视频各视频帧的目标肢体部位缺失处,生成合成视频。由于第二视频仅包含目标肢体部位,因此,可以做到虚拟对象与肢体动作的解耦。在虚拟对象为虚拟人物的情况下,制作第二视频/动作视频时,无需考虑人物主要身体部位的穿着打扮,甚至无需考虑人物的身份。
-
-
-
-
-
-