码迷,mamicode.com
首页 > Web开发 > 详细

Various Optimization Algorithms For Training Neural Network[转]

时间:2021-04-12 12:26:22      阅读:0      评论:0      收藏:0      [点我收藏+]

标签:remove   may   use   careful   tun   relevant   xpl   ase   oid   

from

https://towardsdatascience.com/optimizers-for-training-neural-network-59450d71caf6

 

技术图片
技术图片

Optimizers help to get results faster

Gradient Descent

Stochastic Gradient Descent

Mini-Batch Gradient Descent

Momentum

Nesterov Accelerated Gradient

技术图片
技术图片

NAG vs momentum at local minima

Adagrad

技术图片
技术图片

A derivative of loss function for given parameters at a given time t.

技术图片
技术图片

Update parameters for given input i and at time/iteration t

AdaDelta

技术图片
技术图片

Update the parameters

Adam

技术图片
技术图片

First and second order of momentum

技术图片
技术图片

Update the parameters

Comparison between various optimizers

技术图片
技术图片

Comparison 1

技术图片
技术图片

comparison 2

Conclusions

 

Various Optimization Algorithms For Training Neural Network[转]

标签:remove   may   use   careful   tun   relevant   xpl   ase   oid   

原文地址:https://www.cnblogs.com/lightsong/p/14643083.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!