一种基于主题适应与原型编码的少样本视觉故事叙述方法

    公开(公告)号:CN111708904A

    公开(公告)日:2020-09-25

    申请号:CN202010857191.9

    申请日:2020-08-24

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于主题适应与原型编码的少样本视觉故事叙述方法。该方法首先将据集按主题划分,每一轮训练采样一批主题并将每个主题划分为支持集与查询集;对查询集中的样本提取时序视觉语义特征和图像序列特征,结合在支持集中预先提取好的的故事特征和图像序列特征计算原型向量;再将原型向量与图像序列特征结合,进一步解码获得故事性描述文本。整体视觉故事模型进一步通过元学习方法,根据在查询集上计算得到的综合损失来优化模型的初始参数。在推测阶段,模型通过少数样本调整参数,根据新图像序列生成故事文本。本发明结合原型编码及元学习方法,所构建的模型具有快速适应主题的能力,能更好地生成符合图像序列主题的故事性文本描述。

    一种融合先验信息的命名实体链接方法

    公开(公告)号:CN108363688B

    公开(公告)日:2020-04-28

    申请号:CN201810103629.7

    申请日:2018-02-01

    Applicant: 浙江大学

    Abstract: 本发明公开了一种融合先验信息的命名实体链接方法。该方法包括如下步骤:(1)从Wikipedia data dump,Freebase data dump提取字符串‑候选实体表、人名列表、地名列表;(2)将Wikipedia data dump中的每篇文章表示为词频/逆文档频率tf‑idf特征,并提取每个字符串相对于候选实体的通用性特征;(3)对实体提及进行问询拓展,使用(1)中的字符串‑候选实体表,为实体提及生成候选实体;(4)抽取实体提及所在文章的特征,得到文章的逆文档频率以及重要词碰撞率;(5)使用(2)、(4)所提取的特征,计算实体提及与其各个候选实体之间的关联程度,并将关联程度最高的作为实体链接结果。本发明突破了语料缺乏的限制,为用户提供了可靠的实体链接推荐结果,其中实体通用性特征加入了先验信息。

    基于深度神经网络的角膜病图像序列化特征提取与分类方法及装置

    公开(公告)号:CN110188767A

    公开(公告)日:2019-08-30

    申请号:CN201910380673.7

    申请日:2019-05-08

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于深度神经网络的角膜病图像序列化特征提取与分类方法及装置。包括如下步骤:1)把角膜病裂隙灯图像按照眼表-角膜的自然界域进行区域标注的结果作为训练数据集,并利用滑动窗口对角膜图像中病变主体区域采样,形成区域子块集合;2)对每张角膜图像中所有区域子块,通过DenseNet模型提取其特征,获取区域向量化特征表示;3)将特征提取结果序贯链接组合,保留区域子块之间空间结构关系,并利用LSTM(长短时记忆模型)对其处理,形成角膜图像特征,并进行分类。本发明将深度序列学习模型应用于角膜疾病分类诊断。相比一般图像分类算法,本发明对角膜病诊断中区别性关键信息进行建模,有效保留角膜病特征空间结构。

    一种面向医学领域的多任务命名实体识别对抗训练方法

    公开(公告)号:CN108229582A

    公开(公告)日:2018-06-29

    申请号:CN201810103273.7

    申请日:2018-02-01

    Applicant: 浙江大学

    Abstract: 本发明公开了一种面向医学领域的多任务命名实体识别对抗训练方法。包括如下步骤:(1)收集并处理数据集,使其每一行由一个单词和标签组成;(2)利用卷积神经网络对单词字符层面的信息进行编码,得到字符向量,再和词向量进行拼接,形成输入特征向量;(3)构建共享层,利用双向长短期记忆神经网络对句子中每个单词的输入特征向量进行建模,学习各个任务的公共特征;(4)构建任务层,利用双向长短期网络对输入特征向量和(3)中的输出信息进行建模,学习各个任务的私有特征;(5)利用条件随机场对(3)和(4)的输出进行标签解码;(6)利用共享层的信息训练对抗网络,减少共享层中混入的私有特征。本发明在多个疾病领域的数据集上,进行多任务学习,并且引入对抗训练使得共享层和任务层的特征更独立,快速高效的完成了在特定领域同时训练多个命名实体识别的任务。

    一种基于多模态隐性耦合表达的跨媒体排序方法

    公开(公告)号:CN104346450B

    公开(公告)日:2017-06-23

    申请号:CN201410593006.4

    申请日:2014-10-29

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于多模态隐性耦合表达的跨媒体排序方法。包括如下步骤:1)将文本检索图像的排序样本或图像检索文本的排序样本构建为训练样本;2)对构建得到的训练样本进行基于隐性耦合表达的跨媒体排序学习,得到跨媒体数据的隐性耦合表达挖掘模型以及跨媒体排序模型;3)构建查询文档和候选文档之间的隐性耦合表达;4)基于隐性耦合表达,使用学习得到的跨媒体排序模型进行跨媒体检索。本发明在排序模型中引入了多模态数据的隐性耦合表达,相比一般的多模态数据隐性表达具有更强判别性。由于同时训练了隐性表达挖掘模型和排序模型,它在图像检索文本或文本检索图像中所取得性能较传统的跨媒体排序模型方法更好。

    一种基于神经网络的跨媒体哈希索引方法

    公开(公告)号:CN104346440B

    公开(公告)日:2017-06-23

    申请号:CN201410531086.0

    申请日:2014-10-10

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于神经网络的跨媒体哈希索引方法,包括如下步骤:(1)设计了基于神经网络的哈希函数学习的网络结构(2)对每种模态的神经网络进行逐层预训练(3)将不同模态的神经网络融合成一个新的网络,设计模态间和模态内数据的损失函数,基于损失函数来通过反向传播方式对整个网络参数进行微调(4)去掉网络的输出层,将哈希编码层的输出结构作为哈希函数的输出以支持跨模态的快速检索。利用该方法可以实现基于内容的海量数据的高效跨媒体检索,用户可以通过提交一种类型检索数据去检索另外一种类型数据。

    一种基于卷积神经网络的属性抽取方法

    公开(公告)号:CN106570148A

    公开(公告)日:2017-04-19

    申请号:CN201610968810.5

    申请日:2016-10-27

    Applicant: 浙江大学

    CPC classification number: G06F16/35

    Abstract: 本发明公开了一种基于卷积神经网络的属性抽取方法。包括如下步骤:(1)构建外部知识库;(2)获取文本数据;(3)使用远程监督方法获取包含属性的句子;(4)利用词向量方法获取句子进行向量化;(5)将句子输入卷积神经网络,进行训练和分类。本发明结合远程监督和卷积神经网络模型,利用外部知识库,基于人工定义的映射,在非结构化的文本数据集上提取包含属性候选句,结合卷积神经网络模型,对句子关系进行分类,完成属性抽取任务。

    一种可直接度量不同模态数据间相似性的跨模态检索方法

    公开(公告)号:CN103488713B

    公开(公告)日:2016-09-28

    申请号:CN201310410553.X

    申请日:2013-09-10

    Applicant: 浙江大学

    Abstract: 本发明公开了一种可直接度量不同模态数据间相似性的跨模态检索方法。它包括如下步骤:1)特征提取;2)模型建立和学习;3)跨媒体数据检索;4)结果评价。本发明可以直接在不同模态数据之间进行相似度比较,对于跨模态检索任务,用户可以提交任意模态的文本、图像、声音等,去检索他们需求的对应模态结果。本发明与传统跨媒体检索方法的区别在于可以直接进行不同模态数据之间的相似性比较,满足了跨媒体检索的需求,更加直接地实现了用户的检索意图,与其它可以直接度量不同模态相似性的跨媒体检索算法相比,本方法具有较强抗噪音干扰能力和对松散关联的跨模态数据的表达能力,使得检索效果更好。

    一种基于地理信息的层次化视觉特征提取方法

    公开(公告)号:CN104484347A

    公开(公告)日:2015-04-01

    申请号:CN201410706281.2

    申请日:2014-11-28

    Applicant: 浙江大学

    CPC classification number: G06F17/3087

    Abstract: 本发明公开了一种基于地理信息的层次化视觉特征提取方法。包括如下步骤:1)编写爬虫程序下载照片分享网站中的图像及其地理信息;2)利用图像词袋模型表达图像特征;3) 结合地理信息,应用半监督主题建模方法将图像视觉单词按照视觉主题的形式组织起来;4) 挖掘视觉主题的层次化特性,获取在不同尺度和侧面对特定地理位置进行描述的视觉特征;5)利用获取的层次化视觉特征,对图像进行聚类、分类和检索。本发明结合层次化主题建模和半监督学习,将图像高维视觉单词凝练成具有代表性的视觉主题,并将地理信息引入主题建模过程中,学习得到一个层次化视觉主题模型,将图像表示成多个视觉主题上的分布,据此获得了更具有语义表达能力的层次化视觉特征。

    一种基于跨模态稀疏主题建模的跨媒体检索方法

    公开(公告)号:CN103559192A

    公开(公告)日:2014-02-05

    申请号:CN201310410634.X

    申请日:2013-09-10

    Applicant: 浙江大学

    CPC classification number: G06F17/30017 G06F17/30247 G06F17/30675

    Abstract: 本发明公开了一种基于跨模态稀疏主题建模的跨媒体检索方法。它包括如下步骤:1)对于已有的跨模态多媒体数据进行联合分析,提取其中的主题特征;2)基于已有的图像和文本特征,分析出其中主题与特征之间的稀疏关联,筛选特征与主体之间的相关性,并为跨模态多媒体文档提供相应的主题空间表示;3)根据用户检索的图像或文本信息,在稀疏主题空间中提供跨模态的多媒体检索同能,返回相关主题的图像和文本检索结果。由于本发明在对文本与图像进行投影时,采用稀疏的约束方式,使得每个主题相关的文本与图像特征更精确,因此可以获得更准确的检索结果。

Patent Agency Ranking