一种基于集成学习的用户基础属性预测方法

    公开(公告)号:CN111291798A

    公开(公告)日:2020-06-16

    申请号:CN202010070270.5

    申请日:2020-01-21

    Abstract: 本发明涉及一种基于集成学习的用户基础属性预测方法,该方法通过分析移动用户的App安装及使用数据,预测用户的年龄和性别。首先将多分类问题转化为多个二分类问题,利用LightGBM和FM融合模型作为二分类器进行二分类预测;然后把二分类的预测结果与原始特征合并,构建多分类模型。实验结果表明,本发明提出的融合方法能够提高用户属性预测的效果。

    一种基于运动历史图像的视频目标检测方法

    公开(公告)号:CN110705412A

    公开(公告)日:2020-01-17

    申请号:CN201910901854.X

    申请日:2019-09-24

    Abstract: 本发明公开了一种基于运动历史图像的视频目标检测方法,目的是提高视频目标检测的速度和准确性。所述方法包括三个方面:(1)针对输入的视频帧序列,计算其运动历史图像,并通过残差网络对视频帧及其运动历史图像进行特征提取;(2)将提取到的两部分特征进行融合,输入到卷积神经网络中进行候选框的提取操作;(3)根据边界框回归算法以及构建的分类器得到视频目标检测的结果。本发明将运动历史图像加入到模型训练的过程中,不仅为模型提供了视频帧的特征信息还增加了视频帧序列之间的关联信息,由此可以提高视频目标检测的准确度。

    一种基于文本的三维室内场景重建方法

    公开(公告)号:CN110599592A

    公开(公告)日:2019-12-20

    申请号:CN201910862590.1

    申请日:2019-09-12

    Abstract: 一种基于文本的三维室内场景重建方法,目的是让用户仅需输入自然语言文本,便可重建出文本描述的三维室内场景,其方法包括:将用户输入的室内场景文本数据利用深度语义分析模型抽取出文本中包含的三维模型的词语以及三维模型之间显式空间关系的描述文本;将抽取出来的三维模型词语对照空间知识图谱进行隐式空间关系抽取;利用从室内场景文本中抽取的三维模型词语通过与三维模型数据库中的标签进行相似度计算抽取与之最为接近的三维模型;基于深度语义分析模型得到的三维模型间的显式空间关系与对照空间知识图谱的得到的隐式空间关系,实现对抽取的三维模型的放置,还原文本数据对三维室内场景的描述,实现对用户意图的智能辨别和对三维室内场景的重建。

    一种高分辨率三维体素模型重建方法

    公开(公告)号:CN110390638A

    公开(公告)日:2019-10-29

    申请号:CN201910658615.6

    申请日:2019-07-22

    Abstract: 本发明涉及一种高分辨率三维体素模型重建方法,使用深度卷积变分编码器学习输入图像的特征,编码成一个固定长度的向量;构建生成式对抗网络将编码结果解码出对应的低分辨率的三维体素模型,并进行插值得到一个具有粗糙轮廓的高分辨率三维体素模型;将低分辨率的三维体素模型通过正交投影获取六张低分辨率的二维正交深度图,利用图像超分辨率技术将六张二维正交深度图超分到目标高分辨率,并将其输入到图像判别器中判别真假,通过最小化重建高分辨率二维正交深度图与数据集中高分辨率二维正交深度图的差异,得到最优图像结果;对具有粗糙轮廓的高分辨率三维体素模型进行细节雕刻,得到具有精细轮廓的高分辨率三维模型。

    一种基于生成式对抗网络的深度差分隐私保护方法

    公开(公告)号:CN107368752B

    公开(公告)日:2019-06-28

    申请号:CN201710611972.8

    申请日:2017-07-25

    Abstract: 本发明提供一种基于生成式对抗网络反馈的深度差分隐私保护方法,用于解决深度学习模型应用中攻击者利用自编码等方法还原出训练集数据的问题,应用深度差分隐私保护方法实现训练数据集中用户隐私保护目的。本发明包括:依据输入训练数据集的潜在数据集规模,查询敏感度、攻击者最大攻击概率出隐私预算的上界;在深度网络参数优化计算中融合差分隐私思想添加噪声数据,基于差分隐私与高斯分布可组合特点,计算深度网络每一层的隐私预算,在随机梯度下降计算中添加高斯噪声使之总体隐私预算最小;利用生成式对抗网络生成攻击者可能得到的最优结果,通过对比攻击结果和原始数据间差别反馈调节深度差分隐私模型的参数,实现训练数据集可用性与隐私保护度的平衡。

    一种基于改进的生成式对抗网络的图像语句转换方法

    公开(公告)号:CN107392147A

    公开(公告)日:2017-11-24

    申请号:CN201710598010.3

    申请日:2017-07-20

    CPC classification number: G06K9/00442 G06N3/0454

    Abstract: 本发明提供一种基于改进的生成式对抗网络的图像语句转换方法,本发明的目的是在图像语句转换过程中,获得更符合人类表述习惯的语句。本发明包括:利用基于区域的卷积神经网络根据图像分割成的区域进行显著性检测,产生各个区域的;将词汇向量输入到生成式对抗网络的生成器当中,利用生成器将词汇拼接成句子;将生成语句输入到生成式对抗网络的鉴别器当中,鉴别器通过比较语料库和生成语句的距离,不断否定距离大的语句,输出距离最小的语句;不断训练模型,确定模型参数,使模型趋于稳定后停止训练,并将测试图像进行输入,对模型进行测试。

    一种可视化概念检测器及构造语义场的方法

    公开(公告)号:CN102982072B

    公开(公告)日:2016-05-04

    申请号:CN201210421191.X

    申请日:2012-10-29

    Abstract: 本发明提供一种可视化概念检测器用于三维模型的检索过程,所述可视化概念检测器包括文本描述模块、语义描述模块、特征描述模块和语义概念计算模块。其中,文本描述模块、语义描述模块和特征描述模块分别用于构造源于待检索三维模型的文本描述、网络标注,同义词集、和形状内容特征的语义概念,获得语义概念词汇表。语义概念计算模块用于通过概率模型计算得到核心语义概念词汇表,即语义场。结合该可视化概念检测器来检索三维模型,减弱了“语义鸿沟”的不良影响、减少了三维模型检索的计算量、加快了检索速度、提升了检索结果的精度与稳定性。

Patent Agency Ranking