-
公开(公告)号:CN114677580B
公开(公告)日:2022-09-30
申请号:CN202210586762.9
申请日:2022-05-27
Applicant: 中国科学技术大学
Abstract: 本发明涉及图像描述技术领域,公开了一种基于自适应增强自注意力网络的图像描述方法,可以在几何层面和语义层面上对关系共同进行建模,当图像中两个物体之间存在明确的几何或者语义关系时,该方法可以自适应的增强给定图像中的视觉关系,实现高精度可信的图像描述生成。
-
公开(公告)号:CN114677580A
公开(公告)日:2022-06-28
申请号:CN202210586762.9
申请日:2022-05-27
Applicant: 中国科学技术大学
Abstract: 本发明涉及图像描述技术领域,公开了一种基于自适应增强自注意力网络的图像描述方法,可以在几何层面和语义层面上对关系共同进行建模,当图像中两个物体之间存在明确的几何或者语义关系时,该方法可以自适应的增强给定图像中的视觉关系,实现高精度可信的图像描述生成。
-
公开(公告)号:CN118690755B
公开(公告)日:2024-11-01
申请号:CN202411161518.3
申请日:2024-08-23
Applicant: 中国科学技术大学
IPC: G06F40/30 , G06F40/16 , G06N3/0455
Abstract: 本发明涉及评论生成技术领域,具体公开了一种基于价值体系驱动的主观评论价值编辑方法,将给定的视频以及预设的价值条件输入到完成训练的评论生成模型,输出符合所述价值条件的主观评论文本;所述评论生成模型的训练过程包括:提取视频的多模态信息,构建价值观点场景图;以价值观点场景图为输入,通过自编码生成网络,生成与价值条件相匹配的主观评论文本;自编码生成网络的损失函数采用带正则项的交叉熵损失。与单一模态的分析方法相比,本发明能够更全面、准确地捕捉多媒体内容蕴含的情感和观点信息,为评论生成提供了丰富的输入表示。
-
公开(公告)号:CN118690755A
公开(公告)日:2024-09-24
申请号:CN202411161518.3
申请日:2024-08-23
Applicant: 中国科学技术大学
IPC: G06F40/30 , G06F40/16 , G06N3/0455
Abstract: 本发明涉及评论生成技术领域,具体公开了一种基于价值体系驱动的主观评论价值编辑方法,将给定的视频以及预设的价值条件输入到完成训练的评论生成模型,输出符合所述价值条件的主观评论文本;所述评论生成模型的训练过程包括:提取视频的多模态信息,构建价值观点场景图;以价值观点场景图为输入,通过自编码生成网络,生成与价值条件相匹配的主观评论文本;自编码生成网络的损失函数采用带正则项的交叉熵损失。与单一模态的分析方法相比,本发明能够更全面、准确地捕捉多媒体内容蕴含的情感和观点信息,为评论生成提供了丰富的输入表示。
-
-
-