一种程序包部署方法、电子设备及分布式系统

    公开(公告)号:CN109032610B

    公开(公告)日:2024-04-09

    申请号:CN201710429234.1

    申请日:2017-06-08

    Abstract: 本发明实施例提供了一种程序包部署方法、电子设备及分布式系统,该方法应用于第一计算节点,包括:接收训练任务信息,训练任务信息中包含执行训练任务的各台计算节点信息;根据训练任务信息,确定第一计算节点的状态是否为主用状态;如果为主用状态,获取训练程序包,并将所获取的训练程序包部署到执行训练任务的各台计算节点。可见,本方案中,只有主用状态的计算节点获取训练程序包,并将所获取的训练程序包部署到执行训练任务的各台计算节点,也就是说,并不是每台计算节点都从管理设备中获取程序包,降低了网络带宽压力。

    数据训练方法、装置及系统、计算机设备

    公开(公告)号:CN109948632B

    公开(公告)日:2021-03-26

    申请号:CN201711377963.3

    申请日:2017-12-19

    Inventor: 郑星

    Abstract: 本发明公开了一种数据训练方法、装置及系统、计算机设备,属于人工智能领域。所述方法包括:与其他训练主机获取同一伪随机数种子,其他训练主机为多个训练主机中除第一训练主机以外的训练主机;执行至少一次训练过程,直至训练过程的执行结果满足预设停止条件,训练过程包括:基于伪随机数种子,对文件名集合进行随机化处理,得到更新后的文件名集合,基于更新后的文件名集合,对训练数据集中的第一数据子集进行训练,直至多个训练主机完成本次对训练数据集的训练后,再次执行训练过程,第一数据子集包括第一训练主机对应的数据。本发明解决了相关技术中数据训练网络开销较大,数据训练系统稳定性较差的问题。本发明用于数据训练。

    语音深度学习训练方法及装置

    公开(公告)号:CN111723834A

    公开(公告)日:2020-09-29

    申请号:CN201910217441.X

    申请日:2019-03-21

    Inventor: 戚玉青 郑星 姚沛

    Abstract: 本申请提供一种语音深度学习训练方法、装置、电子设备及可读存储介质,该方法包括:利用预设训练集对语音深度学习模型进行训练,以得到训练后的语音深度学习模型;根据语音深度学习模型训练的轮数确定学习率调整策略;根据所确定的学习率调整策略对学习率进行调整,并基于调整后的学习率,利用所述预设训练集对训练后的语音深度学习模型进行训练,直至训练结束。该方法可以提高语音深度学习训练过程中学习率调整的灵活性。

    云台控制方法、装置及系统

    公开(公告)号:CN108632567B

    公开(公告)日:2020-07-28

    申请号:CN201710157819.2

    申请日:2017-03-16

    Abstract: 本发明公开了一种云台控制方法、装置及系统,属于安防领域。所述方法包括:检测云台摄像机的监控区域内是否存在信号源,所述云台摄像机包括云台及设置在所述云台上的摄像机;当所述监控区域内存在信号源时,判断所述信号源发射的信号是否为指示所述云台进行位置调整的位置调整信号;当所述信号源发射的信号为所述位置调整信号时,根据所述信号源的位置,调整所述云台的位置。本发明解决了相关技术中操作人员在通过终端设备登录客户端并查找到对应的云台摄像机后才能进行控制操作,对云台摄像机的控制操作的触发时延较长的问题。本发明用于控制云台。

    一种神经网络模型训练方法、装置及系统

    公开(公告)号:CN110533178A

    公开(公告)日:2019-12-03

    申请号:CN201810514928.X

    申请日:2018-05-25

    Inventor: 郑星

    Abstract: 本申请实施例提供了一种神经网络模型训练方法、装置及系统,其中,神经网络模型训练系统包括多个训练设备和参数服务器,神经网络模型训练方法可以应用于各训练设备,包括:获取样本数据,样本数据为针对各训练设备、将原始训练样本集进行划分得到各子样本集中的数据;将样本数据输入神经网络模型,得到神经网络输出;根据神经网络输出及预先指定的标签数据,计算神经网络模型的调整数据;将调整数据发送至参数服务器;接收参数服务器反馈的按照预设叠加方式对各训练设备的调整数据叠加得到的叠加数据;基于叠加数据,更新神经网络模型的网络参数。通过本方案,可以提高神经网络模型训练的效率。

    一种分布式训练方法、装置、设备及系统

    公开(公告)号:CN110738322B

    公开(公告)日:2023-06-02

    申请号:CN201810717551.8

    申请日:2018-07-03

    Inventor: 郑星

    Abstract: 本申请实施例提供了一种分布式训练方法、装置、设备及系统,方法包括:如果在节点执行训练任务的过程中,能够参与该训练任务的可用节点的数量发生变化,则根据变化后的可用节点的数量,对训练参数进行调整,并将调整后的训练参数发送至每台可用节点,每台可用节点根据调整后的训练参数继续执行该训练任务。可见,应用本方案,如果多台节点执行同一个训练任务的过程中,一台节点出现故障,则可用节点数量减少,根据减少后的可用节点数量,对训练参数进行调整,每台可用节点根据调整后的训练参数继续执行该训练任务,不会导致训练任务失败。

    一种应用于深度学习网络的缓存优化方法及装置

    公开(公告)号:CN108615077B

    公开(公告)日:2021-08-24

    申请号:CN201611132262.9

    申请日:2016-12-09

    Abstract: 本发明公开了一种应用于深度学习网络的缓存优化方法及装置,其中缓存优化方法包括:对深度学习网络的第N层进行模拟运算;模拟运算后检测第一预定缓存块是否被占用,如果被占用,则为第N层的输出数据分配第二预定缓存块,并在满足预设条件时,释放被占用的所述第一预定缓存块。通过本发明能够解决深度学习网络每层训练中,缓存优化繁琐的问题,并使得缓存的优化和分配变得更加简单和高效,特别是能够适应不同的网络。

    存储空间优化方法及装置

    公开(公告)号:CN112862085A

    公开(公告)日:2021-05-28

    申请号:CN201911184271.6

    申请日:2019-11-27

    Inventor: 郑星 彭剑峰

    Abstract: 本申请公开了一种存储空间优化方法及装置,属于机器学习领域。所述方法包括:获取训练网络和测试网络;确定测试网络的第一网络层,第一网络层为测试网络的任一网络层;如果训练网络存在与第一网络层相同的第二网络层,则将第二网络层的第一数据存储空间分配给第一网络层使用,第一数据存储空间用于存储第二网络层的数据。本申请通过将训练网络的某个网络层的数据存储空间分配给测试网络中的相同网络层使用,实现了测试网络和训练网络的相同网络层对数据存储空间的复用,从而减小了深度学习网络在训练中对数据存储空间的占用,减小了容易出现存储空间不足的风险。

    一种分布式训练方法、装置、设备及系统

    公开(公告)号:CN110738322A

    公开(公告)日:2020-01-31

    申请号:CN201810717551.8

    申请日:2018-07-03

    Inventor: 郑星

    Abstract: 本申请实施例提供了一种分布式训练方法、装置、设备及系统,方法包括:如果在节点执行训练任务的过程中,能够参与该训练任务的可用节点的数量发生变化,则根据变化后的可用节点的数量,对训练参数进行调整,并将调整后的训练参数发送至每台可用节点,每台可用节点根据调整后的训练参数继续执行该训练任务。可见,应用本方案,如果多台节点执行同一个训练任务的过程中,一台节点出现故障,则可用节点数量减少,根据减少后的可用节点数量,对训练参数进行调整,每台可用节点根据调整后的训练参数继续执行该训练任务,不会导致训练任务失败。

Patent Agency Ranking