-
公开(公告)号:CN110866608A
公开(公告)日:2020-03-06
申请号:CN201911056211.6
申请日:2019-10-31
Applicant: 同济大学
Abstract: 本发明涉及一种自适应学习率计算方法,包括以下步骤:步骤S1:基于初始批处理数量和初始最优网络参数组合,得到二次批处理数量;步骤S2:基于二次批处理数量,得到当前的最优网络参数组合;步骤S3:基于当前的最优网络参数组合、当前的损失函数和训练数据量,得到当前的批处理数量;步骤S4:基于当前的批处理数量,得到当前的学习率;步骤S5:当前的批处理数量代替二次批处理数量,重复步骤S2-步骤S5,直至训练模型权重收敛。与现有技术相比,避免产生劣质训练模型权重,保证所生成的训练模型权重是最优的,在围棋对弈时增加棋力,减少训练模型权重训练时间和GPU等硬件的超能损耗。
-
公开(公告)号:CN109815566A
公开(公告)日:2019-05-28
申请号:CN201910020621.9
申请日:2019-01-09
Applicant: 同济大学
Abstract: 本发明涉及一种SGF格式的围棋AI棋谱文件的异常检测方法,包括:步骤S1:导入SGF文件的文本数据;步骤S2:基于词袋模型处理文本数据得到一系列词的集合,并基于得到的集合计算每个词的权重;步骤S3:将每个词的权重集中组合得到文本数据的语言模型向量;步骤S4:利用异常检测算法进行异常检测,并输出检测结果。与现有技术相比,本发明基于词袋模型将文本转换为相应的向量形式,从而可以借助于现有的一些异常诊断算法进行诊断,可以实现棋谱文件的机器诊断。
-
公开(公告)号:CN110929878B
公开(公告)日:2023-07-04
申请号:CN201911041774.8
申请日:2019-10-30
Applicant: 同济大学
IPC: G06N20/00
Abstract: 本发明涉及一种分布式随机梯度下降方法,包括以下步骤:步骤S1:参数服务器得到初始全局梯度;步骤S2:基于初始全局梯度和工作节点的初始任务分配策略,工作节点计算得到工作节点梯度;步骤S3:参数服务器得到工作节点梯度,并进行计算得到更新全局梯度;步骤S4:参数服务器基于更新全局梯度和区块链技术,得到最优梯度和工作节点的更新任务分配策略;步骤S5:最优梯度保存于工作节点的参数缓存中;步骤S6:更新任务分配策略替代初始任务分配策略,最优梯度替代初始全局梯度,重复步骤S2‑S6直至权重收敛。与现有技术相比,避免收集到较差的模型参数,加速了模型的收敛速度,缩短了全程训练时间。
-
公开(公告)号:CN110929878A
公开(公告)日:2020-03-27
申请号:CN201911041774.8
申请日:2019-10-30
Applicant: 同济大学
IPC: G06N20/00
Abstract: 本发明涉及一种分布式随机梯度下降方法,包括以下步骤:步骤S1:参数服务器得到初始全局梯度;步骤S2:基于初始全局梯度和工作节点的初始任务分配策略,工作节点计算得到工作节点梯度;步骤S3:参数服务器得到工作节点梯度,并进行计算得到更新全局梯度;步骤S4:参数服务器基于更新全局梯度和区块链技术,得到最优梯度和工作节点的更新任务分配策略;步骤S5:最优梯度保存于工作节点的参数缓存中;步骤S6:更新任务分配策略替代初始任务分配策略,最优梯度替代初始全局梯度,重复步骤S2-S6直至权重收敛。与现有技术相比,避免收集到较差的模型参数,加速了模型的收敛速度,缩短了全程训练时间。
-
公开(公告)号:CN110866608B
公开(公告)日:2022-06-07
申请号:CN201911056211.6
申请日:2019-10-31
Applicant: 同济大学
Abstract: 本发明涉及一种自适应学习率计算方法,包括以下步骤:步骤S1:基于初始批处理数量和初始最优网络参数组合,得到二次批处理数量;步骤S2:基于二次批处理数量,得到当前的最优网络参数组合;步骤S3:基于当前的最优网络参数组合、当前的损失函数和训练数据量,得到当前的批处理数量;步骤S4:基于当前的批处理数量,得到当前的学习率;步骤S5:当前的批处理数量代替二次批处理数量,重复步骤S2‑步骤S5,直至训练模型权重收敛。与现有技术相比,避免产生劣质训练模型权重,保证所生成的训练模型权重是最优的,在围棋对弈时增加棋力,减少训练模型权重训练时间和GPU等硬件的超能损耗。
-
-
-
-