码迷,mamicode.com
首页 > 其他好文 > 详细

最速下降法(梯度下降法)

时间:2015-08-04 15:01:22      阅读:107      评论:0      收藏:0      [点我收藏+]

标签:

  最速下降法的影子在机器学习中正是无处不在,它简单实用。

一、表示

  在最速下降法中,对权值向量w的连续调整是在最速下降的方向上,即它是与梯度向量方向相反的,梯度向量记为(1),简记(2):

技术分享

  其中,η是一个正常数,称为步长或学习率参数。g(n)是在w(n)处的梯度向量值。在从迭代n到n+1的过程中算法应用修正。

二、证明

  用w(n)附近的一阶泰勒级数展开来逼近,可写成(4)式

  技术分享  由(1)式得到(5)式,将(5)式代入(4)式,得到(6)式。显然是梯度下降的。

三、优缺点

  缺点:局部极小值,而不是全局优化。只有目标函数是凸函数才是全局优化。

参考文献:《神经网络与机器学习》P59

 

最速下降法(梯度下降法)

标签:

原文地址:http://www.cnblogs.com/Wanggcong/p/4701703.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!