DistBelief 框架下的并行随机梯度下降法 - Downpour SGD

时间:2022-08-16 05:29:16
      
     本文是读完 Jeffrey Dean, Greg S. Corrado 等人的文章 Large Scale Distributed Deep Networks (2012) 后的一则读书笔记,重点介绍在 Google 的软件框架 DistBelief 下设计的一种用来训练大规模深度神经网络的随机梯度下降法 — Downpour SGD。该方法通过分布式地部署多个模型副本和一个“參数server”,同一时候实现了模型并行和数据并行。且对机器失效问题具有非常好的容错性。结合 Adagrad 自适应学习率使用,对非凸优化问题有非常好的效果。


DistBelief 框架下的并行随机梯度下降法 - Downpour SGD

DistBelief 框架下的并行随机梯度下降法 - Downpour SGD

DistBelief 框架下的并行随机梯度下降法 - Downpour SGD

DistBelief 框架下的并行随机梯度下降法 - Downpour SGD

DistBelief 框架下的并行随机梯度下降法 - Downpour SGDDistBelief 框架下的并行随机梯度下降法 - Downpour SGD

DistBelief 框架下的并行随机梯度下降法 - Downpour SGD

作者: peghoty

出处: http://blog.csdn.net/itplus/article/details/31831661

欢迎转载/分享, 但请务必声明文章出处.