-
公开(公告)号:CN111611956A
公开(公告)日:2020-09-01
申请号:CN202010466033.0
申请日:2020-05-28
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及一种面向地铁视觉图像的轨道检测方法及系统,所述检测方法包括:采集地铁场景下的多个轨道图像,作为训练图像;通过基于卷积神经网络的特征提取网络,对训练图像进行特征提取,得到对应的图像特征;采用信息聚合算法,根据所述图像特征,得到基于轨道形状和分布特征的融合特征;根据所述融合特征,建立分类预测模型;根据所述分类预测模型,预测待处理轨道图像的各像素点的类别。本发明通过对训练图像特征提取,得到图像特征,进一步考虑轨道特殊的分布和形状特征,采用信息聚合算法,根据图像特征得到基于轨道形状和分布特征的融合特征;进而根据融合特征建立分类预测模型,可以准确、有效地预测出待处理轨道图像的各像素点的类别。
-
公开(公告)号:CN106874362B
公开(公告)日:2020-01-10
申请号:CN201611253245.0
申请日:2016-12-30
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及一种多语言自动文摘方法,包括以下步骤:步骤101,获取多个目标语言文档中的多个谓词论元结构;步骤102,对所述多个谓词论元结构中的每一个谓词论元进行重要性打分;步骤103,根据所述每一个谓词论元的重要性得分,生成目标语言摘要。本发明中,实现了获取指定语言的摘要,且在保证该摘要含有更多的重要信息的信息量时,提高可读性。
-
公开(公告)号:CN106997387A
公开(公告)日:2017-08-01
申请号:CN201710195587.X
申请日:2017-03-28
Applicant: 中国科学院自动化研究所
CPC classification number: G06F16/345 , G06K9/00744 , G06K9/6201
Abstract: 本发明提供了一种基于文本‑图像匹配的多模态自动文摘方法,包括:对多模态信息中的文本信息中的句子进行重要性打分;对多模态信息中的视频信息通过镜头边界切割,提取视频的关键帧;对多模态信息中的图像信息和/或视频信息通过文本‑图像匹配模型为图像和/或关键帧找到语义对应的文本;以及根据每一个句子的重要性得分、图片和关键帧所占权重、与文本的语义相关度,以及惩罚冗余项,生成文本摘要。通过训练文本‑图像匹配模型,将图像或视频中的信息利用文本‑图像匹配模型找到对应语义的文本,实现了同时处理文本、图像和视频信息进行文本摘要,使得输出的自动文摘相较传统的纯文本自动文摘结果具有更好的全面性和准确度。
-
公开(公告)号:CN107015966B
公开(公告)日:2019-07-19
申请号:CN201710195609.2
申请日:2017-03-28
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供了一种基于改进的PageRank算法的文本‑音频自动文摘方法,包括:将音频转录为文本,计算转录文本和原始文本的相似度;利用改进的PageRank算法根据相似度计算转录文本和原始文本中的句子的重要性;以及根据句子的重要性,生成文本摘要。通过改进PageRank算法,引导排序,修改了跨模态句子之间的相似度矩阵,使得来自不同模态的两个语义相同的句子之间的连接指向从原来的双向变为单向,实现了原始文本句子与转录文本句子语义相同时,按照原始文本句子进行输出,在保证获取较多重要信息量同时,避免了转录带来的语法错误和不通顺的问题,提高了文本‑音频自动文摘的可读性。
-
-
-