用户特征获取方法、装置、计算机设备及存储介质

    公开(公告)号:CN111695629A

    公开(公告)日:2020-09-22

    申请号:CN202010530924.8

    申请日:2020-06-11

    Abstract: 本申请实施例公开了一种用户特征获取方法、装置、计算机设备及存储介质,属于计算机技术领域。该方法包括:调用第一特征提取模型,对已存储的目标用户标识的第一用户信息进行特征提取,得到第一用户特征,接收第一设备发送的第二用户特征,根据第一用户特征及第二用户特征,获取目标用户标识的第一组合用户特征。由第一设备为本端的第二设备提供第一设备提取得到的用户特征,而无需提供第一设备存储的原用户信息,避免了用户信息的泄露。且第二设备将第二设备和第一设备提取得到的用户特征进行组合得到组合特征,由于该组合特征包括第二设备和第一设备存储的用户信息中的特征,丰富了用户特征的信息量,提高了组合用户特征的准确性。

    数据更新方法及装置
    2.
    发明授权

    公开(公告)号:CN108304370B

    公开(公告)日:2021-08-06

    申请号:CN201710326441.4

    申请日:2017-05-10

    Inventor: 余乐乐 肖品 崔斌

    Abstract: 本发明公开了一种数据更新方法及装置。其中,该方法包括:第一服务器将训练指示信息推送至第二服务器,并从第二服务器拉取第一单词集合在第二矩阵中对应的第二部分矩阵;第一服务器根据第二部分矩阵、第一矩阵以及第一单词集合对第二部分矩阵和第一矩阵进行更新;第一服务器将更新后的第二部分矩阵发送至第二服务器,并接收第二服务器发送的更新后的第一部分矩阵;第一服务器根据更新后的第一部分矩阵对更新后的第一矩阵进行更新。采用上述方案,本发明解决了现有技术中数据更新过程中第一服务器的数据处理量较大的技术问题。

    数据更新方法及装置
    3.
    发明公开

    公开(公告)号:CN108304370A

    公开(公告)日:2018-07-20

    申请号:CN201710326441.4

    申请日:2017-05-10

    Inventor: 余乐乐 肖品 崔斌

    Abstract: 本发明公开了一种数据更新方法及装置。其中,该方法包括:第一服务器将训练指示信息推送至第二服务器,并从第二服务器拉取第一单词集合在第二矩阵中对应的第二部分矩阵;第一服务器根据第二部分矩阵、第一矩阵以及第一单词集合对第二部分矩阵和第一矩阵进行更新;第一服务器将更新后的第二部分矩阵发送至第二服务器,并接收第二服务器发送的更新后的第一部分矩阵;第一服务器根据更新后的第一部分矩阵对更新后的第一矩阵进行更新。采用上述方案,本发明解决了现有技术中数据更新过程中第一服务器的数据处理量较大的技术问题。

    数据处理方法及装置
    4.
    发明公开

    公开(公告)号:CN108287706A

    公开(公告)日:2018-07-17

    申请号:CN201710327036.4

    申请日:2017-05-10

    Abstract: 本发明公开了一种数据处理方法及装置,属于大数据领域。方法包括:根据数据指示标识和第一处理指令,生成数据对象,数据指示标识指示待处理的数据,第一处理指令指示第一处理操作,第一处理操作为获取类操作或更新类操作;基于数据对象调用与第一处理操作匹配的指定接口,指定接口包括与获取类操作匹配的获取接口和与更新类操作匹配的更新接口中的任一个;在与第一处理操作匹配的指定接口的运行过程中,对数据指示标识和第一处理指令进行封装,得到数据处理请求,向数据指示标识对应的服务器发送数据处理请求,服务器根据第一处理指令对数据进行第一处理操作,得到第一处理结果。本发明设置两个通用的接口,提高通用性,扩展了应用范围。

    分布式机器学习方法和系统

    公开(公告)号:CN108009642A

    公开(公告)日:2018-05-08

    申请号:CN201610968121.4

    申请日:2016-10-31

    CPC classification number: G06F9/52 G06N99/00

    Abstract: 一种分布式机器学习方法,包括:接收当前计算节点的全局参数获取指令;判断当前计算节点当前的迭代轮数与其它计算节点当前的迭代轮数之间的差值是否在预设范围内;若是,将全局参数发送给当前计算节点;接收当前计算节点根据全局参数执行当前的迭代轮数的迭代学习之后发送的更新参数,根据接收更新参数的时间戳与全局参数时间戳计算延迟参数,根据延迟参数及更新参数对全局参数进行更新得到更新的全局参数进行存储,本申请进一步提供一种分布式机器学习系统。不同计算节点之间的速度差异限制在预设范围内,形成有限异步并行协议的分布式机器学习,避免了单点瓶颈,减小不同计算节点产生的更新对全局参数的扰动的影响,确保收敛稳定。

    分布式机器学习方法和系统

    公开(公告)号:CN108009642B

    公开(公告)日:2021-12-14

    申请号:CN201610968121.4

    申请日:2016-10-31

    Abstract: 一种分布式机器学习方法,包括:接收当前计算节点的全局参数获取指令;判断当前计算节点当前的迭代轮数与其它计算节点当前的迭代轮数之间的差值是否在预设范围内;若是,将全局参数发送给当前计算节点;接收当前计算节点根据全局参数执行当前的迭代轮数的迭代学习之后发送的更新参数,根据接收更新参数的时间戳与全局参数时间戳计算延迟参数,根据延迟参数及更新参数对全局参数进行更新得到更新的全局参数进行存储,本申请进一步提供一种分布式机器学习系统。不同计算节点之间的速度差异限制在预设范围内,形成有限异步并行协议的分布式机器学习,避免了单点瓶颈,减小不同计算节点产生的更新对全局参数的扰动的影响,确保收敛稳定。

    数据处理方法及装置
    7.
    发明授权

    公开(公告)号:CN108287706B

    公开(公告)日:2021-09-14

    申请号:CN201710327036.4

    申请日:2017-05-10

    Abstract: 本发明公开了一种数据处理方法及装置,属于大数据领域。方法包括:根据数据指示标识和第一处理指令,生成数据对象,数据指示标识指示待处理的数据,第一处理指令指示第一处理操作,第一处理操作为获取类操作或更新类操作;基于数据对象调用与第一处理操作匹配的指定接口,指定接口包括与获取类操作匹配的获取接口和与更新类操作匹配的更新接口中的任一个;在与第一处理操作匹配的指定接口的运行过程中,对数据指示标识和第一处理指令进行封装,得到数据处理请求,向数据指示标识对应的服务器发送数据处理请求,服务器根据第一处理指令对数据进行第一处理操作,得到第一处理结果。本发明设置两个通用的接口,提高通用性,扩展了应用范围。

Patent Agency Ranking