机器学习算法——神经网络 http://www.cnblogs.com/tornadomeet/archive/2013/03/18/2966041.html (转) 线性回归或者logistic回归问题理论上不是可以解决所有的回归和分类问题么,那么为什么还有其它各种各样的机器学习算法呢?比如这里马 ...
分类:
其他好文 时间:
2016-08-26 10:22:35
阅读次数:
158
1: 神经网络中,我们通过最小化神经网络来训练网络,所以在训练时最后一层是损失函数层(LOSS), 在测试时我们通过准确率来评价该网络的优劣,因此最后一层是准确率层(ACCURACY)。 但是当我们真正要使用训练好的数据时,我们需要的是网络给我们输入结果,对于分类问题,我们需要获得分类结果,如下右图 ...
分类:
其他好文 时间:
2016-08-17 13:40:09
阅读次数:
543
一:引言 在前面我们谈论到的算法都是在给定x的情况下直接对p(y|x;Θ)进行建模。例如,逻辑回归利用hθ(x) = g(θTx)对p(y|x;Θ)建模。 现在考虑这样一个分类问题,我们想根据一些特征来区别动物是大象(y=1)还是狗(y=0)。给定了这样一个训练集,逻辑回归或感知机算法要做的就是去找 ...
分类:
编程语言 时间:
2016-08-15 01:26:44
阅读次数:
295
C4.5是一系列用在机器学习和数据挖掘的分类问题中的算法。它的目标是监督学习:给定一个数据集,其中的每一个元组都能用一组属性值来描述,每一个元组属于一个互斥的类别中的某一类。C4.5的目标是通过学习,找到一个从属性值到类别的映射关系,并且这个映射能用于对新的类别未知的实体进行分类。 C4.5由J.R... ...
分类:
其他好文 时间:
2016-08-14 15:59:17
阅读次数:
168
在线性回归问题中,我们假设,而在分类问题中,我们假设,它们都是广义线性模型的例子,而广义线性模型就是把自变量的线性预测函数当作因变量的估计值。很多模型都是基于广义线性模型的,例如,传统的线性回归模型,最大熵模型,Logistic回归,softmax回归。 指数分布族 在了解广义线性模型之前,先了解一 ...
分类:
其他好文 时间:
2016-08-14 07:38:51
阅读次数:
196
分类问题和线性回归问题问题很像,只是在分类问题中,我们预测的y值包含在一个小的离散数据集里。首先,认识一下二元分类(binary classification),在二元分类中,y的取值只能是0和1.例如,我们要做一个垃圾邮件分类器,则为邮件的特征,而对于y,当它1则为垃圾邮件,取0表示邮件为正常邮件 ...
分类:
其他好文 时间:
2016-08-13 18:20:55
阅读次数:
267
分类和逻辑回归 接下来讨论分类问题,类似于回归问题,只不过y的值只有少数离散的值。现在我们考虑二分类问题,此时y只有0和1两个值。 逻辑回归 构造假设函数$h_{\theta}(x)$: $h_{\theta}(x)=g(\theta^{(x)})=\frac{1}{1+e^{-\theta^{T} ...
分类:
其他好文 时间:
2016-08-03 22:15:12
阅读次数:
130
本节使用的算法称为ID3,另一个决策树构造算法CART以后讲解。 一、概述 我们经常使用决策树处理分类问题,它的过程类似二十个问题的游戏:参与游戏的一方在脑海里想某个事物,其他参与者向他提出问题,只允许提20个问 题,问题的答案也只能用对或错回答。问问题的人通过推断分解,逐步缩小带猜测事物的范围。 ...
分类:
编程语言 时间:
2016-08-01 17:16:35
阅读次数:
695
本文主要描述了朴素贝叶斯分类方法,包括模型导出和学习描述。实例部分总结了《machine learning in action》一书中展示的一个该方法用于句子感情色彩分类的程序。1
方法概述学习(参数估计)实现:朴素贝叶斯下的文本分类
模型概述
朴素贝叶斯方法,是指朴素:特征条件独立贝叶斯:基于贝叶斯定理
根据贝叶斯定理,对一个分类问题,给定样本特征x,样本属于类别y的概率是...
分类:
其他好文 时间:
2016-07-19 10:48:55
阅读次数:
187
逻辑回归常用于分类问题,最简单诸如二分类问题:是否是垃圾邮件?比赛是赢是输? 对于线性回归问题, z = w0*x0+w1*x1+w2*x2+... 一般的通过最小二乘法学习参数w来预测给定一个x值时z的大小,其值域在(-∞,+∞),而对于分类问题,显然预测值是离散的,通过引入S函数先将值域y缩小到 ...
分类:
其他好文 时间:
2016-07-07 19:16:56
阅读次数:
921