一种基于视觉和空间关系融合的图注意力网络构建方法

    公开(公告)号:CN112184805A

    公开(公告)日:2021-01-05

    申请号:CN202010946723.6

    申请日:2020-09-10

    Inventor: 俞俊 杨艳

    Abstract: 本发明公开了一种基于视觉和空间关系融合的图注意力网络构建方法。本发明步骤如下:1、对输入图像中的目标对象,计算目标对象的视觉特征和绝对位置特征。利用两个特征构成输入图像所形成图中的一个双属性节点,最终形成一个图;2、计算图中每个邻节点到中心节点的空间几何相对位置特征;3、计算每个邻节点到中心节点之间的注意力权重;4、计算每个邻节点到中心节点的传递信息;5、将中心节点对应的所有邻节点到该中心节点的传递信息和对应的注意力权重相乘后求和,得到聚合后该中心节点的信息。用该信息更新视觉特征,保持绝对位置特征不变。本发明可以用于辅助各种视觉场景分析,是一个可以嵌入不同视觉任务的通用模型。

    一种基于点击特征预测的图像分类方法

    公开(公告)号:CN108647691B

    公开(公告)日:2020-07-17

    申请号:CN201810199059.6

    申请日:2018-03-12

    Inventor: 谭敏 俞俊 张宏源

    Abstract: 本发明公开了一种基于点击特征预测的图像分类方法。本发明步骤如下:1、借助有文本点击信息的图像数据集;利用分词技术及词频‑逆向文件频率算法构建每张图片的文本点击特征向量;2、在源点击数据集下,以最小化点击特征预测误差为目标,构建带位置约束的非线性词嵌入模型,从而实现基于视觉特征的点击特征预测,并利用融合的深度视觉与预测点击特征对不含点击信息的任一目标图像集分类;3、构建多任务、跨模态迁移深度学习框架,在同时最小化分类与预测损失下,利用源点击数据集、目标数据集训练深度视觉与词嵌入模型;4、通过反向传播算法对步骤2中的网络参数进行训练,直至整个网络模型收敛。本发明使得预测的点击特征更为准确。

    基于词性分解的深度用户点击特征的细粒度图像分类方法

    公开(公告)号:CN111191691A

    公开(公告)日:2020-05-22

    申请号:CN201911296150.0

    申请日:2019-12-16

    Inventor: 俞俊 谭敏 周剑

    Abstract: 本发明公开了一种基于词性分解的深度用户点击特征的细粒度图像分类方法。本发明先利用从互联网上获取到的用户点击数据,利用自然语言处理的分词、词干化、去除停顿词等技术获得单词,同时获得单词的词性,分词性在得到的单词中挑选合适的关键词,然后利用得到的关键词和其对应的词频得到词频逆文档频率特征,再把通过这种方式获得的特征向量进行整合,得到一个特征张量,最后利用这种特征,专门构建并适用于该种这特征的网络进行分类。本发明在获得高精确率的前提下,可以有效决解传统方法所不能克服的语义鸿沟的问题。该方法的另一个好处,得益于网络结构的小巧,容易部署,更加适合实际的生产实践活动。该方法最终在Clickture-Dog的数据集上取得了优异的结果。

    基于半监督局部小块排列的人脸动画生成方法

    公开(公告)号:CN105374063B

    公开(公告)日:2018-11-02

    申请号:CN201510653862.9

    申请日:2015-10-10

    Inventor: 俞俊 张剑 高飞

    Abstract: 本发明公开了一种基于半监督局部小块排列的人脸动画生成方法。本发明将人脸模型看成一个满足流形约束的三维数据顶点集,并假设待驱动的人脸小块的流形坐标和驱动后的人脸小块间相差一个局部线性变换。首先根据待驱动人脸模型的拓扑结构为每个顶点选择合适的邻域,进而构造该顶点相关的小块;然后把待驱动人脸的小块投影到流形子空间中,得到小块的流形坐标;最后利用一系列局部线性变换,根据待驱动的人脸小块的局部坐标求解驱动后的人脸小块,在此过程中利用一组已有的运动数据作为待驱动人脸相应顶点的标注数据来约束求解过程,使得待求的人脸小块能以半监督的方式求解。本方法提高了人脸驱动的准确性,改善了人脸驱动结果的视觉效果。

    一种利用多层深度表征进行无参考图像质量预测的方法

    公开(公告)号:CN107743225A

    公开(公告)日:2018-02-27

    申请号:CN201710962452.1

    申请日:2017-10-16

    Inventor: 俞俊 高飞 孟宣彤

    CPC classification number: H04N17/004

    Abstract: 本发明公开了一种利用多层深度表征进行无参考图像质量预测的方法。本发明包括如下步骤:步骤(1)数据预处理:将所有图像缩放到统一的尺寸大小,减去平局值,将二进制数据转换为深度神经网络能识别的数据格式;步骤(2)特征提取及处理:利用一个在ImageNet上训练好的37层VGGnet模型进行特征提取,提取每层特征并进行处理,得到一个列向量;步骤(3)预测分数:将每层特征融合得到的列向量输入支持向量回归模型得到每层特征的预测分数;将各层分数平均值作为整张图片的质量评估分值。本发明提出了一整简单高效的针对图像质量评价的新方法。并且获得了目前在图像质量评价领域中的最好效果。

    一种基于图片文本点击量的相近文本的合并方法

    公开(公告)号:CN106997379A

    公开(公告)日:2017-08-01

    申请号:CN201710165283.9

    申请日:2017-03-20

    Inventor: 俞俊 谭敏 吴炜晨

    CPC classification number: G06F16/374 G06F16/35 G06F16/5866 G06K9/6223

    Abstract: 本发明公开了一种基于图片文本点击量的相近文本的合并方法。本发明包括以下步骤:步骤1:提取查询文本的图像点击特征;步骤2:基于图像相似度矩阵构建点击传播模型,更新点击特征向量,包括:相似度矩阵计算和点击传播模型的构建;步骤3:构建基于热门查询的文本字典;基于查询文本的总的图像点击数,选择点击量相对较高的构成字典;步骤4:基于步骤(3)得到的文本字典,对任意的查询文本利用稀疏编码为其归类。本发明通过改进图像的点击特征向量来提高细粒度分类识别率。

    一种基于泛函映射的多模态图像分割方法

    公开(公告)号:CN104778683B

    公开(公告)日:2017-06-27

    申请号:CN201510040592.4

    申请日:2015-01-27

    Abstract: 本发明涉及基于泛函映射的多模态图像分割方法。本发明对包含目标的图像集合做如下操作:1)将图像分割成超像素块,并用不同的特征描述子表征,获得多模态图像表示;2)在多模态图像上建立超像素图,构建相应的拉普拉斯矩阵;3)表征每幅图像的约减泛函空间,建立图像对之间的泛函映射;4)将每种模态的图像泛函映射与图像线索对齐,引入隐函数保持泛函映射之间的一致性;5)依据多模态映射一致性获得泛函映射表达,通过联合优化目标函数计算图像对应的分割函数,得到图像的最优分割表示。本发明能够利用图像不同模态的特征表示以及图像之间共有的目标潜在关联,准确判定图像的各目标区域块,增强了图像分割的性能和效果。

    一种基于分布估计的条件生成对抗网络文本生成图像方法

    公开(公告)号:CN114332565B

    公开(公告)日:2025-05-16

    申请号:CN202111670694.6

    申请日:2021-12-31

    Abstract: 本发明公开了一种基于分布估计的条件生成对抗网络文本生成图像方法用。本发明步骤如下:步骤(1)、数据预处理,提取文本数据的特征;步骤(2)、建立多阶段的无条件和有条件联合生成对抗神经网络和损失函数;步骤(3)、引入基于分布估计的损失函数;步骤(4)、模型训练;根据得到的新的损失函数,在训练过程中对判别器Di和生成器Gi进行交替训练。本发明损失隐式地体现了单个文本生成无限次图像的影响,优化的目标为单个文本描述生成图像的特征分布。通过估计单个文本描述生成的图像的特征分布,来实现损失计算及梯度信息回传。在多个模型和数据集上的实验表明,基于分布估计的新损失函数能够有效提升文本生成图像模型的性能。

    一种基于面向对象的双流注意力网络的视频问答方法

    公开(公告)号:CN114428866B

    公开(公告)日:2025-05-02

    申请号:CN202210094738.3

    申请日:2022-01-26

    Inventor: 俞俊 张欣

    Abstract: 本发明公开了一种基于面向对象的双流注意力网络的视频问答方法。使用双流机制来表示视频的视觉内容,其中一个流为前景对象的静态外观流,另一个流为前景对象的动态行为流。在每个流中,对象的特征既包括对象本身的特征,还包括对象的时空编码和对象所在场景的上下文信息特征。在后续的图卷积操作进行深层特征提取的时候可以探索到对象之间的相对时空关系与上下文感知关系。同时,使用双流机制解决了此前视频问答模型只考虑对象静态特征而缺乏对动态信息分析的问题。本发明提高了对模态内交互和模态间语义对齐的探索能力,在相关视频问答数据集上取得了较好的结果。

Patent Agency Ranking