码迷,mamicode.com
首页 > 编程语言 > 详细

梯度下降算法&线性回归算法

时间:2020-01-24 14:27:52      阅读:80      评论:0      收藏:0      [点我收藏+]

标签:mic   并且   image   参考   alpha   http   src   mat   blog   

**机器学习的过程说白了就是让我们编写一个函数使得costfunction最小,并且此时的参数值就是最佳参数值。

定义
假设存在一个代价函数
fun:\(J\left(\theta_{0}, \theta_{1}\right)\)
通过不断地调整\(\theta_{0}\)\(\theta_{1}\)是函数\(J\left(\theta_{0}, \theta_{1}\right)\)取得最小值

梯度下降就是使J不断通过导数下降的一种算法
\(\theta_{j}:=\theta_{j}-\alpha \frac{\partial}{\partial \theta_{j}} J\left(\theta_{0}, \theta_{1}\right)\)
\(a\)是学习率,也就是梯度下降的效率

  • 如果学习效率过小,则导致J下降太慢,
  • 如果学习效率太大,会导致到不了J最小值,会直接越过最小值,这时候代价函数反而变大了
  • 因此适度最好。参考

线性回归梯度下降

给出梯度下降的参数更新公式,\(\theta_0\)\(\theta_1\)要同时更新
技术图片

线性回归算法

说白了就是将梯度下降算法应用到代价函数中,求使代价函数最小的\(\theta_0\)\(\theta_1\),这个就是多元微积分里面的求偏导数,因为是两个未知数,同时求两个未知数

假设函数和代价函数的关系
技术图片

梯度下降算法&线性回归算法

标签:mic   并且   image   参考   alpha   http   src   mat   blog   

原文地址:https://www.cnblogs.com/gaowenxingxing/p/12232070.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!