动态地管理人工神经网络
    1.
    发明公开

    公开(公告)号:CN109716365A

    公开(公告)日:2019-05-03

    申请号:CN201780052695.X

    申请日:2017-06-27

    申请人: 罗宾·杨

    发明人: 罗宾·杨

    IPC分类号: G06N3/08 G06N3/04

    摘要: 在一些实施例中,所公开的主题涉及在机器学习系统中使用具有多个人工神经网络的套接字层,来为机器学习服务创建可定制的输入和输出。机器学习服务可以包括多个卷积神经网络和多个预训练的全连接神经网络以找到最佳拟合。在一个实施例中,当定制的输入或输出数据不是预训练的人工神经网络的良好拟合时,套接字层可以自动请求附加卷积层或神经网络的新训练,以动态地管理机器学习系统,以适应定制的输入或定制的输出。描述并保护了其他实施例。

    关联评估对象的风险预警方法、装置和计算机设备

    公开(公告)号:CN109657918A

    公开(公告)日:2019-04-19

    申请号:CN201811378877.9

    申请日:2018-11-19

    摘要: 本申请涉及人工智能技术领域,应用于金融行业,特别是涉及一种关联评估对象的风险预警方法、装置、计算机设备和存储介质。一个实施例中的方法包括:获取评估对象知识图谱以及评估对象的状态指标信息,提取评估对象知识图谱中的关联关系特征向量,将关联关系特征向量和评估对象的状态指标信息进行特征工程整合,得到整合后的特征向量;获取评估对象的出险状态,根据整合后的特征向量以及评估对象的出险状态对深度神经网络模型进行训练,得到已训练的深度神经网络模型;获取出险评估对象,根据已训练的深度神经网络模型以及出险评估对象,得到出险评估对象对应的关联评估对象的风险概率,根据风险概率对关联评估对象进行风险预警。

    一种优化神经网络结构的技术

    公开(公告)号:CN109492762A

    公开(公告)日:2019-03-19

    申请号:CN201710809000.X

    申请日:2017-09-11

    IPC分类号: G06N3/08

    CPC分类号: G06N3/082

    摘要: 本发明涉及一种优化神经网络结构的技术,特别涉及一种迭代算法,以使神经网络用户输入和用户输出之间的重构误差最小化,实现神经网络结构某一层结构的优化。本发明涉及一种优化神经网络结构的技术,利用一种迭代算法,初始化神经网络的参数,计算步长,动态的调整神经网络隐藏层的节点数,以使神经网络用户输入和用户输出之间的重构误差最小化,实现神经网络结构某一层结构的优化。

    一种深度神经网络的结构搜索方法及装置

    公开(公告)号:CN109284820A

    公开(公告)日:2019-01-29

    申请号:CN201811259033.2

    申请日:2018-10-26

    IPC分类号: G06N3/04 G06N3/08

    CPC分类号: G06N3/0454 G06N3/082

    摘要: 本发明提供了一种深度神经网络的结构搜索方法及装置,涉及人工智能技术领域。方法包括:在预先设置的搜索空间中获得深度神经网络中依次串接的每个模块中的每层计算单元结构;在每个模块中采用预设连接方式将各计算单元进行连接,得到每个模块中的信息流;根据模块及每个模块中的计算单元的连接情况,得到初始神经网络;对初始神经网络中的信息流设置稀疏缩放算子,其中稀疏缩放算子用于对信息流进行缩放;采用预置的训练样本数据对初始神经网络的权重和信息流的稀疏缩放算子进行训练,得到中间神经网络;将中间神经网络中稀疏缩放算子为零的信息流删除,得到搜索空间内的搜索结果神经网络。本发明可以节省网络结构搜索的时间。

    神经网络的压缩装置及方法

    公开(公告)号:CN109063835A

    公开(公告)日:2018-12-21

    申请号:CN201810766922.1

    申请日:2018-07-11

    IPC分类号: G06N3/08

    CPC分类号: G06N3/082

    摘要: 一种神经网络的压缩装置及方法,其中,该装置包括:因子矢量确定单元,分别确定用于对神经网络中每一层的滤波器和滤波器形状进行衰减的第一因子矢量和第二因子矢量,其中,第一因子矢量包括衰减因子c=1和第一衰减因子α,第二因子矢量包括衰减因子c和第一衰减因子β,其中α和β均大于0且小于1;衰减单元,用于根据所述第一因子矢量与第二因子矢量分别对所述滤波器和滤波器形状进行衰减;剪枝单元,用于对衰减后的滤波器和滤波器形状进行剪枝,确定压缩后的神经网络。本发明基于渐进抑制学习,对神经网络进行压缩,在网络训练过程中加入削弱权值的第一和第二衰减因子,将权值衰减为零从而可将其剪枝,从而得到结构精简的神经网络模型。

    深度神经网络的加速与压缩方法及装置

    公开(公告)号:CN108334945A

    公开(公告)日:2018-07-27

    申请号:CN201810088723.X

    申请日:2018-01-30

    发明人: 程健 胡庆浩

    IPC分类号: G06N3/063 G06N3/08

    CPC分类号: G06N3/063 G06N3/082

    摘要: 本发明属于神经网络技术领域,具体涉及一种深度神经网络的加速与压缩方法及装置。旨在解决现有技术对深度神经网络进行压缩和加速占用大量内存并且精度下降的问题。本发明提供深度神经网络的加速与压缩方法,包括获取原始深度神经网络中各层的输入数据与参数矩阵;基于输入数据与参数矩阵,计算原始深度神经网络中各层的二值矩阵与浮点系数;将二值矩阵替换原始深度神经网络各层的参数矩阵,并在原始深度神经网络中构建尺度因子层,基于浮点系数初始化尺度因子层的参数,得到新的深度神经网络。本发明的方案能够将神经网络的网络参数二值化,占用更少的内存且提升精度。