-
公开(公告)号:CN118379321B
公开(公告)日:2025-05-23
申请号:CN202410476312.3
申请日:2024-04-19
Applicant: 华院计算技术(上海)股份有限公司
IPC: G06T7/194
Abstract: 本公开提供了一种抠图模型训练方法、图像抠图处理方法、装置及介质,其中,抠图模型训练方法包括以下步骤:将样本图像分别输入人像抠图模型和物体抠图模型中,得到对应的第一图像和第二图像,所述第一图像为包含人像的抠图蒙版,所述第二图像为包含物体的抠图蒙版;对所述第一图像和所述第二图像执行与操作得到所述样本图像对应的标签,所述标签为同时包含人像和物体的抠图蒙版;利用所述样本图像以及所述样本图像对应的所述标签对目标抠图模型进行训练,通过样本图像和样本图像对应的标签构建同时包含人像和物体的多主体数据集对抠图模型进行训练,使抠图模型在面对人像和物体这种多主体抠图的场景下能够得到更加准确的抠图结果。
-
公开(公告)号:CN119893015A
公开(公告)日:2025-04-25
申请号:CN202510059091.4
申请日:2025-01-14
Applicant: 华院计算技术(上海)股份有限公司
Abstract: 本发明提供一种字幕生成模型设计方法、装置、存储介质和程序产品,涉及自然语言处理技术领域。其中,字幕生成模型设计方法包括:输入一段语音和对应的正确内容,以及字幕单行最大限制字数;使用基于深度学习的人声检测模型进行人声检测;使用预训练的深度模型进行语音识别;使用所述正确内容与识别文字进行匹配、校正,得到字幕文字;根据字幕单行最大限制字数,对字幕文字进行分行、整合,得到最终字幕成果。本发明生成的字幕综合考虑实际的语音停顿及文本语言习惯,字幕与音频呈现更高的匹配度,且字幕文字更加易读;本发明同时考虑了设备限制或人为规定的字幕单行最大限制字数,进一步提高了生成字幕的可读性。
-
公开(公告)号:CN119831882A
公开(公告)日:2025-04-15
申请号:CN202411860635.9
申请日:2024-12-17
Applicant: 华院计算技术(上海)股份有限公司
IPC: G06T5/70 , G06T5/60 , G06N3/0464 , G06N3/0475 , G06N3/094
Abstract: 本公开提供了一种人脸修复模型的训练方法、人脸修复方法、系统和设备,该训练方法包括:基于预先训练好的生成对抗网络蒸馏得到人脸修复模块;基于预设卷积神经网络训练得到降噪去除模块;基于通道分割特征变换层连接人脸修复模块和降噪去除模块的潜在特征,以得到目标人脸修复模型。本公开将包括深度可分离调制卷积层的人脸修复模块和包括深度可分离层的降噪去除模块连接,得到目标人脸修复模型,采用了更适合边缘设备的深度可分离卷积,显著地减小了模型的计算量和参数量,降低了计算资源消耗,提高了运行效率,更适用于边缘设备,提升了普适性。
-
公开(公告)号:CN119478136A
公开(公告)日:2025-02-18
申请号:CN202411581532.9
申请日:2024-11-06
Applicant: 华院计算技术(上海)股份有限公司
IPC: G06T11/60 , G06T5/70 , G06T3/4038 , G06N3/045 , G06N3/08
Abstract: 本发明提供一种文本生成图像的方法、系统、存储介质和程序产品,方法包括:对给定的待形变图像和给定的训练目标图像进行编码;对给定的文本输入进行编码;利用图像关键点提取方法,获得待形变图像和训练目标图像的图像关键点集合;利用薄板样条差值方法,获得图像关键点的变化方向;将图像关键点的变化方向和文本编码,拼接到待形变图像的编码,进行扩散模型的加噪操作;利用扩散模型的去噪操作,获得去噪后的图片编码;将去噪后的图片编码,利用可训练的解码器进行图像生成;利用生成的图像和给定的训练目标图像组成损失函数,训练解码器网络,获得薄板样条差值引导的文生图模型。本发明能够在保持位置合理性的情况下生成丰富的图像。
-
公开(公告)号:CN118015110B
公开(公告)日:2025-01-14
申请号:CN202311762681.0
申请日:2023-12-19
Applicant: 华院计算技术(上海)股份有限公司
Abstract: 一种人脸图像生成方法及装置、计算机可读存储介质、终端,所述方法包括:确定人脸图像生成模型,人脸图像生成模型包括音频内容特征提取子模型、音频情感特征提取子模型、扩散子模型;将驱动音频分别输入音频内容特征提取子模型和音频情感特征提取子模型进行特征提取,得到音频内容特征和音频情感特征;至少基于音频内容特征和音频情感特征进行拼接,得到音频融合特征;将所述音频融合特征和带噪声的参考人脸图像特征输入所述扩散子模型进行去噪处理,得到目标完整人脸特征;对目标完整人脸特征进行解码,得到完整人脸生成图像。上述方案有助于生成既能准确匹配驱动音频中的口型,又能精准表达驱动音频包含的情绪的人脸生成图像。
-
公开(公告)号:CN118823635A
公开(公告)日:2024-10-22
申请号:CN202410825520.X
申请日:2024-06-24
Applicant: 华院计算技术(上海)股份有限公司
IPC: G06V20/40
Abstract: 本发明提供一种视频未来事件预测方法、装置、存储介质和程序产品,其中方法包括以下步骤:输入视频和视频内容描述;将视频拆分为视频片段;从视频片段中过滤出视频关键片段和视频关键帧;采用因果注意力机制,从视频关键片段和视频关键帧中提取影响未来事件的信息;构建思维推理链,引导模型;通过语言生成模型解码,预测视频未来事件。本发明克服了在处理复杂的、多变的现实世界场景时的局限性,增强了对复杂场景和细微变化的理解能力,实现了对复杂视频数据的深度分析和未来事件的准确预测,提高了在未来事件预测方面的准确性和可靠性,能够基于当前数据预测长期趋势和潜在风险,为决策提供更全面的支持。
-
公开(公告)号:CN118377865A
公开(公告)日:2024-07-23
申请号:CN202410381970.4
申请日:2024-03-29
Applicant: 华院计算技术(上海)股份有限公司
IPC: G06F16/332 , G06F3/01 , G06T13/40 , G10L21/10 , G10L13/02
Abstract: 本发明提供一种基于大模型与深度学习的数字人实时问答方法及系统,其中方法包括以下步骤:生成静默音频;获得用户问题;在获得所述用户问题时,通过大模型将所述用户问题生成对应的问答文本后,转换为若干标准时长的问答音频;在没有获得所述用户问题时,生成静默音频后循环使用;基于所述问答音频、所述静默音频和对应的人脸图像,使用深度模型,计算并渲染出对应的人脸图像帧;对所述问答音频、所述静默音频和所述人脸图像帧进行处理,输入到对应的通道,得到实时渲染的唇型人脸视频;使用实时驱动技术将所述唇型人脸视频推送到用户端。本发明能够实现用户对虚拟现实产品的实时体验,并借助大模型的特性生成更加合理的互动模版,增加产品的灵活性。
-
公开(公告)号:CN118055271A
公开(公告)日:2024-05-17
申请号:CN202410133249.3
申请日:2024-01-30
Applicant: 华院计算技术(上海)股份有限公司
IPC: H04N21/24 , H04N21/242 , H04N21/43 , H04N21/442 , H04N21/234 , H04N21/44
Abstract: 本发明公开一种说话人视频音画处理方法及装置,该方法包括:接收待检测说话人视频;依次对所述待检测说话人视频的各片段提取人脸图像特征和语音特征;将每个片段对应的人脸图像特征和语音特征输入预先构建的音画匹配模型,确定所述说话人视频的音画匹配度;根据所述音画匹配度确定所述待检测说话人视频的音画是否同步。利用本发明方案,可以有效地实现说话人视频音画不同步的判别。在确定说话人视频的音画不同步的情况下,还可对所述待检测说话人视频进行修复,实现音画同步,保证说话人视频质量。
-
公开(公告)号:CN116847091B
公开(公告)日:2024-04-26
申请号:CN202310882709.8
申请日:2023-07-18
Applicant: 华院计算技术(上海)股份有限公司
IPC: H04N19/169 , H04N19/119 , H04N19/176 , H04N19/154
Abstract: 本公开提供了一种图像编码方法、系统、设备及介质,所述方法包括:获取待处理的图像;将所述图像划分为多个区域块,并确定所述区域块的区域视觉信息及所述区域块在语义标签上的概率分布;确定所述图像的图像视觉信息及图像语义信息,所述图像视觉信息根据每个所述区域块的区域视觉信息生成,所述图像语义信息根据每个所述区域块在语义标签上的概率分布生成;根据所述图像语义信息及所述图像视觉信息对图像进行编码,得到图像编码。本公开能够使得图像编码更丰富、更准确,能够扩展于各种图像任务重,提升编码在下游的应用率;另外,通过区域块确定图像视觉信息和图像语义信息,能够提升图像编码的准确率。
-
公开(公告)号:CN117234369A
公开(公告)日:2023-12-15
申请号:CN202311057771.X
申请日:2023-08-21
Applicant: 华院计算技术(上海)股份有限公司
IPC: G06F3/0481 , G06T13/40 , G06V10/80
Abstract: 本发明公开一种数字人交互方法及系统、计算机可读存储介质、数字人设备,该方法包括:接收包含语音的用户交互视频;将所述用户交互视频分离为视频帧和语音,将所述语音转换为文本,得到多模态数据;根据所述多模态数据分别获取基于视频、语音、文本的情绪感知结果及感知编码;根据各模态的情绪感知结果或感知编码确定控制标签向量;将所述控制标签向量融合到各模态的感知编码中;根据融合后的各模态的感知编码分别生成基于视频、语音、文本的生成内容;将所述基于视频、语音、文本的生成内容进行合成处理,得到合成视频。利用本发明方案,可以有效提高数字人的情感识别和表达能力,提升用户使用体验和效率。
-
-
-
-
-
-
-
-
-