六、逻辑回归(Logistic Regression) 6.1 分类问题 6.2 假说表示 6.3 判定边界 6.4 代价函数 6.5 简化的成本函数和梯度下降 6.6 高级优化 6.7 多类别分类:一对多 七、正则化(Regularization) 7.1 过拟合的问题 7.2 代价函数 7.3 ...
分类:
其他好文 时间:
2018-01-17 00:38:29
阅读次数:
198
17年开始,网上的机器学习教程逐渐增多,国内我所了解的就有网易云课堂、七月、小象学院和北风。他们的课程侧重点各有不同,有些侧重理论,有些侧重实践,结合起来学习事半功倍。但是论经典,还是首推吴恩达的机器学习课程。 吴大大14年在 "coursera" 的课程通俗易懂、短小精悍,在讲解知识点的同时,还会 ...
分类:
其他好文 时间:
2018-01-16 23:56:43
阅读次数:
208
算法正则化可以有效地防止过拟合, 但正则化跟算法的偏差和方差又有什么关系呢?下面主要讨论一下方差和偏差两者之间是如何相互影响的、以及和算法的正则化之间的相互关系 假如我们要对高阶的多项式进行拟合,为了防止过拟合现象,我们要使用图下所示的正则化。因此我们试图通过下面的正则化项,来让参数的值尽可能小。正 ...
分类:
移动开发 时间:
2018-01-13 18:42:30
阅读次数:
271
假设你要处理一个新数据集,让你做图片分类,这个数据集是关于Flowers的,问题是,数据集中flower的类别很少,数据集中的数据也不多,你发现从零开始训练CNN的效果很差,很容易过拟合,怎么办呢,于是你想到了使用Transfer Learning,用别人已经训练好的Imagenet的模型来做。 做 ...
分类:
其他好文 时间:
2018-01-12 17:13:35
阅读次数:
345
(本文是根据 "neuralnetworksanddeeplearning" 这本书的第三章 "Improving the way neural networks learn" 整理而成的读书笔记,根据个人口味做了删减) 上一章,我们介绍了神经网络容易出现的过拟合问题,并学习了最常用的正则化方法,以 ...
分类:
Web程序 时间:
2018-01-07 16:10:19
阅读次数:
254
BN作用: 1. 加速收敛 2. 控制过拟合,可以少用或不用Dropout和正则 3. 降低网络对初始化权重不敏感 4. 允许使用较大的学习率 一、如何加速收敛? 1. 通过归一化输入值/隐藏单元值,以获得类似的范围值,可加速学习。 2. 限制了在前层的参数更新会影响数值分布的程度,使层的输出更加稳 ...
分类:
其他好文 时间:
2018-01-07 00:47:30
阅读次数:
167
过拟合 过拟合相当于一个人只会读书,却不知如何利用知识进行变通。 相当于他把考试题目背得滚瓜烂熟,但一旦环境稍微有些变化,就死得很惨。 从图形上看,类似下图的最右图: 从数学公式上来看,这个曲线应该是阶数太高的函数,因为一般任意的曲线都能由高阶函数来拟合,它拟合得太好了,因此丧失了泛化的能力。 用L ...
分类:
其他好文 时间:
2017-12-25 13:41:50
阅读次数:
401
这是我改写的代码,可以运行,但是过拟合现象严重,不知道怎么修改比较好 ...
分类:
Web程序 时间:
2017-12-20 16:48:58
阅读次数:
221
所谓过拟合,就是当一个模型过于复杂后,它可以很好的处理训练数据的每一个数据,甚至包括其中的随机噪点。而没有总结训练数据中趋势。使得在应对未知数据时错误里一下变得很大。这明显不是我们要的结果。 我们想要的是在训练中,忽略噪点的干扰,总结整体趋势。在应对未知数据时也能保持训练时的正确率。 上图中第一种情 ...
分类:
其他好文 时间:
2017-12-18 18:56:09
阅读次数:
3896
怎样评价我们的学习算法得到的假设以及如何防止过拟合和欠拟合的问题。 当我们确定学习算法的参数时,我们考虑的是选择参数来使训练误差最小化。有人认为,得到一个很小的训练误差一定是一件好事。但其实,仅仅是因为这个假设具有很小的训练误差,当将其样本量扩大时,会发现训练误差变大了,这说明它不是一个好的假设。比 ...
分类:
移动开发 时间:
2017-12-17 20:44:18
阅读次数:
200