码迷,mamicode.com
首页 > 移动开发 > 详细

斯坦福第十课:应用机器学习的建议(Advice for Applying Machine Learning)

时间:2016-04-27 18:30:44      阅读:258      评论:0      收藏:0      [点我收藏+]

标签:

10.1  决定下一步做什么

10.2  评估一个假设

10.3  模型选择和交叉验证集

10.4  诊断偏差和方差

10.5  归一化和偏差/方差

10.6  学习曲线

10.7  决定下一步做什么


 

 10.1  决定下一步做什么   

     到目前为止,我们已经介绍了许多不同的学习算法,如果你一直跟着这些视频的进度学习,你会发现自己已经不知不觉地成为一个了解许多先进机器学习技术的专家了。

     然而,在懂机器学习的人当中依然存在着很大的差距,一部分人确实掌握了怎样高效有力地运用这些学习算法。而另一些人他们可能对我马上要讲的东西,就不是那么熟悉了。他 们可能没有完全理解怎样运用这些算法。因此总是把时间浪费在毫无意义的尝试上。我想做 的是确保你在设计机器学习的系统时,你能够明白怎样选择一条最合适、最正确的道路。因 此,在这节视频和之后的几段视频中,我将向你介绍一些实用的建议和指导,帮助你明白怎 样进行选择。具体来讲,我将重点关注的问题是假如你在开发一个机器学习系统,或者想试 着改进一个机器学习系统的性能,你应如何决定接下来应该选择哪条道路?为了解释这一问 题,我想仍然使用预测房价的学习例子,假如你已经完成了正则化线性回归,也就是最小化 代价函数 J 的值,假如,在你得到你的学习参数以后,如果你要将你的假设函数放到一组新的房屋样本上进行测试,假如说你发现在预测房价时产生了巨大的误差,现在你的问题是要想改进这个算法,接下来应该怎么办? 实际上你可以想出很多种方法来改进这个算法的性能,其中一种办法是使用更多的训练样本。具体来讲,也许你能想到通过电话调查或上门调查来获取更多的不同的房屋出售数据。 遗憾的是,我看到好多人花费了好多时间想收集更多的训练样本。他们总认为,要是我有两倍甚至十倍数量的训练数据,那就一定会解决问题的是吧?但有时候获得更多的训练数据实 际上并没有作用。在接下来的几段视频中,我们将解释原因。

     我们也将知道怎样避免把过多的时间浪费在收集更多的训练数据上,这实际上是于事无补的。另一个方法,你也许能想到的是尝试选用更少的特征集。因此如果你有一系列特征比 如 x1x2 x3 等等。也许有很多特征,也许你可以花一点时间从这些特征中仔细挑选一小部分来防止过拟合。或者也许你需要用更多的特征,也许目前的特征集,对你来讲并不是很有帮助。

     你希望从获取更多特征的角度来收集更多的数据,同样地,你可以把这个问题扩展为一个很 大的项目,比如使用电话调查来得到更多的房屋案例,或者再进行土地测量来获得更多有关, 这块土地的信息等等,因此这是一个复杂的问题。同样的道理,我们非常希望在花费大量时 间完成这些工作之前,我们就能知道其效果如何。我们也可以尝试增加多项式特征的方法,比如 x1 的平方,x2 的平方,x1x2 的乘积,我们可以花很多时间来考虑这一方法,我们也可以 考虑其他方法减小或增大正则化参数 lambda 的值。我们列出的这个单子,上面的很多方法 都可以扩展开来扩展成一个六个月或更长时间的项目。遗憾的是,大多数人用来选择这些方法的标准是凭感觉的,也就是说,大多数人的选择方法是随便从这些方法中选择一种,比如 他们会说 “噢,我们来多找点数据吧”,然后花上六个月的时间收集了一大堆数据,然后 也许另一个人说:“好吧,让我们来从这些房子的数据中多找点特征吧”。我很遗憾不止一 次地看到很多人花了至少六个月时间来完成他们随便选择的一种方法,而在六个月或者更长 时间后,他们很遗憾地发现自己选择的是一条不归路。幸运的是,有一系列简单的方法能让 你事半功倍,排除掉单子上的至少一半的方法,留下那些确实有前途的方法,同时也有一种 很简单的方法,只要你使用,就能很轻松地排除掉很多选择,从而为你节省大量不必要花费 的时间。最终达到改进机器学习系统性能的目的假设我们需要用一个线性回归模型来预测房 价,当我们运用训练好了的模型来预测未知数据的时候发现有较大的误差,我们下一步可以 做什么?

1. 获得更多的训练实例——通常是有效的,但代价较大,下面的方法也可能有效,可考虑先采用下面的几种方法。

2. 尝试减少特征的数量

3. 尝试获得更多的特征

4. 尝试增加多项式特征

5. 尝试减少归一化程度 λ

6. 尝试增加归一化程度 λ

我们不应该随机选择上面的某种方法来改进我们的算法,而是运用一些机器学习诊断法 来帮助我们知道上面哪些方法对我们的算法是有效的。

在接下来的两段视频中,我首先介绍怎样评估机器学习算法的性能,然后在之后的几段 视频中,我将开始讨论这些方法,它们也被称为"机器学习诊断法"。

“诊断法”的意思是: 这是一种测试法,你通过执行这种测试,能够深入了解某种算法到底是否有用。这通常也能够告诉你,要想改进一种算法的效果,什么样的尝试,才是有意义的。在这一系列的视频中 我们将介绍具体的诊断法,但我要提前说明一点的是,这些诊断法的执行和实现,是需要花 些时间的,有时候确实需要花很多时间来理解和实现,但这样做的确是把时间用在了刀刃上, 因为这些方法让你在开发学习算法时,节省了几个月的时间,因此,在接下来几节课中,我 将先来介绍如何评价你的学习算法。在此之后,我将介绍一些诊断法,希望能让你更清楚。 在接下来的尝试中,如何选择更有意义的方法。

 


 

10.2  评估一个假设

在本节视频中我想介绍一下怎样用你学过的算法来评估假设函数。在之后的课程中,我 们将以此为基础来讨论如何避免过拟合和欠拟合的问题。

技术分享

 

      当我们确定学习算法的参数的时候,我们考虑的是选择参量来使训练误差最小化,有人 认为得到一个非常小的训练误差一定是一件好事,但我们已经知道,仅仅是因为这个假设具 有很小的训练误差,并不能说明它就一定是一个好的假设函数。而且我们也学习了过拟合假 设函数的例子,所以这推广到新的训练集上是不适用的。

       那么,你该如何判断一个假设函数是过拟合的呢?对于这个简单的例子,我们可以对假 设函数 h(x) 进行画图,然后观察图形趋势,但对于特征变量不止一个的这种一般情况,还 有像有很多特征变量的问题,想要通过画出假设函数来进行观察,就会变得很难甚至是不可 能实现。

      因此,我们需要另一种方法来评估我们的假设函数过拟合检验。 为了检验算法是否过拟合,我们将数据分成训练集和测试集,通常用 70%的数据作为训练集,用剩下 30%的数据作为测试集。很重要的一点是训练集和测试集均要含有各种类型的数据,通常我们要对数据进行“洗牌”,然后再分成训练集和测试集。

 技术分享

测试集评估在通过训练集让我们的模型学习得出其参数后,对测试集运用该模型,我们 有两种方式计算误差:

1. 对于线性回归模型,我们利用测试集数据计算代价函数 J

2. 对于逻辑回归模型,我们除了可以利用测试数据集来计算代价函数外:

技术分享

误分类的比率,对于每一个测试集实例,计算:

技术分享

然后对计算结果求平均。


10.3  模型选择和交叉验证集

假设我们要在 10 个不同次数的二项式模型之间进行选择:

 技术分享

显然越高次数的多项式模型越能够适应我们的训练数据集,但是适应训练数据集并不代 表着能推广至一般情况,我们应该选择一个更能适应一般情况的模型。

我们需要使用交叉验 证集来帮助选择模型。

即:使用 60%的数据作为训练集,使用 20%的数据作为交叉验证集,使用 20%的数据作为测试集

技术分享

模型选择的方法为:

1. 使用训练集训练出 10 个模型

2. 用 10 个模型分别对交叉验证集计算得出交叉验证误差(代价函数的值)

3. 选取代价函数值最小的模型

4. 用步骤 3 中选出的模型对测试集计算得出推广误差(代价函数的值)

 

技术分享


10.4  诊断偏差和方差

       当你运行一个学习算法时,如果这个算法的表现不理想,那么多半是出现两种情况:要 么是偏差比较大,要么是方差比较大。换句话说,出现的情况要么是欠拟合,要么是过拟合 问题。那么这两种情况,哪个和偏差有关,哪个和方差有关,或者是不是和两个都有关?搞 清楚这一点非常重要,因为能判断出现的情况是这两种情况中的哪一种。其实是一个很有效 的指示器,指引着可以改进算法的最有效的方法和途径。在这段视频中,我想更深入地探讨 一下有关偏差和方差的问题,希望你能对它们有一个更深入的理解,并且也能弄清楚怎样评 价一个学习算法,能够判断一个算法是偏差还是方差有问题,因为这个问题对于弄清如何改 进学习算法的效果非常重要,高偏差和高方差的问题基本上来说是欠拟合和过拟合的问题

      技术分享

 

我们通常会通过将训练集和交叉验证集的代价函数误差与多项式的次数绘制在同一张 图表上来帮助分析:

 技术分享

技术分享

对于训练集,当 d 较小时,模型拟合程度更低,误差较大;随着 d 的增长,拟合程度提高,误差减小。

对于交叉验证集,当 d 较小时,模型拟合程度低,误差较大;但是随着 d 的增长,误差 呈现先减小后增大的趋势,转折点是我们的模型开始过拟合训练数据集的时候。

如果我们的交叉验证集误差较大,我们如何判断是方差还是偏差呢? 根据上面的图表, 我们知道:

技术分享

训练集误差和交叉验证集误差近似时:偏差/欠拟合

交叉验证集误差远大于训练集误差时:方差/过拟合


 

10.5  归一化和偏差/方差

       在我们在训练模型的过程中,一般会使用一些归一化方法来防止过拟合。

       但是我们可能会归一化的程度太高或太小了,即我们在选择 λ 的值时也需要思考与刚才选择多项式模型次数类似的问题。

技术分享

 

      我们选择一系列的想要测试的 λ  值,通常是 0-10  之间的呈现 2  倍关系的值(如:0,0.01,0.02,0.04,0.08,0.15,0.32,0.64,1.28,2.56,5.12,10  共 12 个)。 

      我们同样把数据分为训练集、交叉验证集和测试集。

 技术分享

选择 λ 的方法为:

1. 使用训练集训练出 12 个不同程度归一化的模型

2. 用 12 模型分别对交叉验证集计算的出交叉验证误差

3. 选择得出交叉验证误差最小的模型

4. 运用步骤 3 中选出模型对测试集计算得出推广误差,我们也可以同时将训练集和交叉验证集模型的代价函数误差与 λ 的值绘制在一张图表上:

 技术分享

 

•当 λ 较小时,训练集误差较小(过拟合)而交叉验证集误差较大

随着 λ 的增加,训练集误差不断增加(欠拟合),而交叉验证集误差则是先减小后增加

 


10.6  学习曲线

     学习曲线就是一种很好的工具,我经常使用学习曲线来判断某一个学习算法是否处于偏 差、方差问题。学习曲线是学习算法的一个很好的合理检验(sanity check)。学习曲线是将训练集误差和交叉验证集误差作为训练集实例数量(m)的函数绘制的图表。

      即,如果我们有 100 行数据,我们从 1 行数据开始,逐渐学习更多行的数据。思想是: 当训练较少行数据的时候,训练的模型将能够非常完美地适应较少的训练数据,但是训练出来的模型却不能很好地适应交叉验证集数据或测试集数据。

 技术分享

 

如何利用学习曲线识别高偏差/欠拟合: 作为例子,我们尝试用一条直线来适应下面的 数据,可以看出,无论训练集有多么大误差都不会有太大改观:

也就是说在高偏差/欠拟合的情况下,增加数据到训练集不一定能有帮助。

如何利用学习曲线识别高方差/过拟合: 假设我们使用一个非常高次的多项式模型,并且归一化非常小

可以看出,当交叉验证集误差远大于训练集误差时,往训练集增加更多数 据可以提高模型的效果。

技术分享技术分享

 

也就是说在高方差/过拟合的情况下,增加更多数据到训练集可能可以提高算法效果。


个人总结:随着变量个数的增长,特征越多,拟合程度提高,出现过拟合现象,误差减小,方差减小。归一化程度越小。


 

 10.7  决定下一步做什么

我们已经介绍了怎样评价一个学习算法,我们讨论了模型选择问题,偏差和方差的问题。 那么这些诊断法则怎样帮助我们判断,哪些方法可能有助于改进学习算法的效果,而哪些可 能是徒劳的呢?

让我们再次回到最开始的例子,在那里寻找答案,这就是我们之前的例子。回顾 1.1 中 提出的六种可选的下一步,让我们来看一看我们在什么情况下应该怎样选择:

1. 获得更多的训练实例——解决高偏差

2. 尝试减少特征的数量——解决高偏差

3. 尝试获得更多的特征——解决高方差

4. 尝试增加多项式特征——解决高方差

5. 尝试减少归一化程度 λ——解决高方差

6. 尝试增加归一化程度 λ——解决高偏差 

 

神经网络的方差和偏差:

 

 技术分享

 

 

      使用较小的神经网络,类似于参数较少的情况,容易导致高方差和欠拟合,但计算代价 较小使用较大的神经网络,类似于参数较多的情况,容易导致高偏差和过拟合,虽然计算代 价比较大,但是可以通过归一化手段来调整而更加适应数据。

     通常选择较大的神经网络并采用归一化处理会比采用较小的神经网络效果要好。

    对于神经网络中的隐藏层的层数的选择,通常从一层开始逐渐增加层数,为了更好地作选择,可以把数据分为训练集、交叉验证集和测试集,针对不同隐藏层层数的神经网络训 练神经网络, 然后选择交叉验证集代价最小的神经网络。

    好的,以上就是我们介绍的偏差和方差问题,以及诊断该问题的学习曲线方法。在改 进学习算法的表现时,你可以充分运用以上这些内容来判断哪些途径可能是有帮助的。而哪 些方法可能是无意义的。如果你理解了以上几节视频中介绍的内容,并且懂得如何运用。那 么你已经可以使用机器学习方法有效的解决实际问题了。你也能像硅谷的大部分机器学习从 业者一样,他们每天的工作就是使用这些学习算法来解决众多实际问题。我希望这几节中提 到的一些技巧,关于方差、偏差,以及学习曲线为代表的诊断法能够真正帮助你更有效率地 应用机器学习,让它们高效地工作。

 

 

 

 

 

 

 

 

斯坦福第十课:应用机器学习的建议(Advice for Applying Machine Learning)

标签:

原文地址:http://www.cnblogs.com/hellochennan/p/5439698.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!