http://www.cnblogs.com/fengfenggirl/p/classsify_decision_tree.html 决策树是一种基本的分类和回归方法。优点是具有可读性,分类速度快,学习时,利用训练数据,根据损失函数最小化得原则建立决策树模型。 缺点是容易过拟合,对训练数据的分类能力
分类:
其他好文 时间:
2016-03-08 21:16:13
阅读次数:
250
5.1节 Cost Function神经网络的代价函数。 上图回顾神经网络中的一些概念: L 神经网络的总层数。 sl 第l层的单元数量(不包括偏差单元)。 2类分类问题:二元分类和多元分类。 上图展现的是神经网络的损失函数,注意这是正则化的形式。 正则化部分,i、j不为0。当然i、j可以为0,此时
分类:
Web程序 时间:
2016-02-25 00:07:14
阅读次数:
344
在前一节当中我们讨论了神经网络静态的部分:包括神经网络结构、神经元类型、数据部分、损失函数部分等。这个部分我们集中讲讲动态的部分,主要是训练的事情,集中在实际工程实践训练过程中要注意的一些点,如何找到最合适的参数。...
分类:
其他好文 时间:
2016-01-15 11:09:46
阅读次数:
236
前面8小节,算从神经网络的结构、简单原理、数据准备与处理、神经元选择、损失函数选择等方面把神经网络过了一遍。这个部分我们打算把知识点串一串,动手实现一个简单的2维平面神经网络分类器,去分割平面上的不同类别样本点。为了循序渐进,我们打算先实现一个简单的线性分类器,然后再拓展到非线性的2层神经网络。我们可以看到简单的实现,能够有分隔程度远高于线性分类器的效果。...
分类:
其他好文 时间:
2016-01-15 11:06:50
阅读次数:
1906
在前一节当中我们讨论了神经网络静态的部分:包括神经网络结构、神经元类型、数据部分、损失函数部分等。这个部分我们集中讲讲动态的部分,主要是训练的事情,集中在实际工程实践训练过程中要注意的一些点,如何找到最合适的参数。...
分类:
其他好文 时间:
2016-01-15 01:16:27
阅读次数:
2453
前面8小节,算从神经网络的结构、简单原理、数据准备与处理、神经元选择、损失函数选择等方面把神经网络过了一遍。这个部分我们打算把知识点串一串,动手实现一个简单的2维平面神经网络分类器,去分割平面上的不同类别样本点。为了循序渐进,我们打算先实现一个简单的线性分类器,然后再拓展到非线性的2层神经网络。我们可以看到简单的实现,能够有分隔程度远高于线性分类器的效果。...
分类:
其他好文 时间:
2016-01-15 01:13:52
阅读次数:
227
1.线性回归我们用 X1, X2..Xn 去描述 feature 里面的分量,比如 x1=房间的面积, x2=房间的朝向,等等,我们可以做出一个估计函数评论此估计函数的参数是否好,采用损失函数,即对于m次的估计值和真实值的差的平方和求和,然后乘1/2是为了简化计算。如何取参数,使得估计函数 最小。可...
分类:
其他好文 时间:
2015-12-22 21:21:39
阅读次数:
253
本文主要从一个例子开始说说线性回归模型以及线性回归模型的损失函数,求解方法和概率解释。不涉及统计学里的回归分析等诸多细节。例子假设我们中介手上有一些房屋销售的数据(北京的房价太高了):面积(平方米)价格(万)8032090365100380120400150500有个人有个130平方米的房子要卖,中...
分类:
其他好文 时间:
2015-12-08 02:02:08
阅读次数:
225
在上一篇中,我们看到了神经网络是怎样使用梯度下降算法来学习它们的权值和偏置。然而,我们还有一些没有解释:我们没有讨论怎样计算损失函数的梯度。本篇中将解释著名的BP算法,它是一个快速计算梯度的算法。反向传播算法(Backpropagation algorithm,BP)是在1970s提出的,但是它的重...
分类:
其他好文 时间:
2015-12-06 17:44:00
阅读次数:
707
并不搞机器学习,只是凭兴趣随便谈谈。loss function翻译为损失函数总觉得不妥,但也没有更好的翻译(或许就叫失函数更好),其实很多英文术语最好就是不翻译。又称为cost function,用来度量预测错误的程度。对任意模型的输入输出X和Y,在其联合分布P(X,Y)下,总的loss为各分布点按...
分类:
其他好文 时间:
2015-11-19 01:49:31
阅读次数:
198