机器学习算法与Python实践这个系列主要是参考《机器学习实战》这本书。因为自己想学习Python,然后也想对一些机器学习算法加深下了解,所以就想通过Python来实现几个比较常用的机器学习算法。恰好遇见这本同样定位的书籍,所以就参考这本书的过程来学习了。 这节学习的是逻辑回归(Logistic R ...
分类:
编程语言 时间:
2016-08-14 15:58:21
阅读次数:
237
分类问题和线性回归问题问题很像,只是在分类问题中,我们预测的y值包含在一个小的离散数据集里。首先,认识一下二元分类(binary classification),在二元分类中,y的取值只能是0和1.例如,我们要做一个垃圾邮件分类器,则为邮件的特征,而对于y,当它1则为垃圾邮件,取0表示邮件为正常邮件 ...
分类:
其他好文 时间:
2016-08-13 18:20:55
阅读次数:
267
边界:感知 在逻辑回归中,$p(y=1 \mid x;\theta)$的概率由$h_{\theta}(x)=g(\theta^{T}x)$建立模型。当$h_{\theta}(x)\geq 0.5$则预测x的输出为1。或者说当$\theta_{x} \geq 0$则预测x的输出为1。因此当$\thet ...
分类:
其他好文 时间:
2016-08-05 08:52:43
阅读次数:
171
虚拟变量定义在实际建模过程中,被解释变量不但受定量变量影响,同时还受定性变量影响。例如需要考虑性别、民族、不同历史时期、季节差异、企业所有制性质不同等因素的影响。这些因素也应该包括在模型中。由于定性变量通常表示的是某种特征的有和无,所以量化方法可采用取值为1或0。这种变量称作虚拟变量,用D表示。...
分类:
其他好文 时间:
2016-08-05 01:00:27
阅读次数:
623
分类和逻辑回归 接下来讨论分类问题,类似于回归问题,只不过y的值只有少数离散的值。现在我们考虑二分类问题,此时y只有0和1两个值。 逻辑回归 构造假设函数$h_{\theta}(x)$: $h_{\theta}(x)=g(\theta^{(x)})=\frac{1}{1+e^{-\theta^{T} ...
分类:
其他好文 时间:
2016-08-03 22:15:12
阅读次数:
130
注:本文为个人学习摘录,原文地址:http://www.cnblogs.com/qiengo/archive/2012/06/30/2570874.html#code Matrix的数学原理 平移变换 旋转变换 缩放变换 错切变换 对称变换 代码验证 Matrix的数学原理 在Android中,如果 ...
分类:
移动开发 时间:
2016-08-02 13:15:45
阅读次数:
260
参看博文http://www.tuicool.com/articles/2qYjuy 逻辑回归的输出范围是[0,1],根据概率值来判断因变量属于0还是属于1 实现过程分三步: indicated function指示函数 ...
分类:
其他好文 时间:
2016-07-31 17:36:01
阅读次数:
127
持续学习完善中~ 分类模型的构造方法有:决策树,关联规则,贝叶斯,神经网络,规则学习,k-临近法,遗传算法,粗糙集以及模糊逻辑技术。 朴素贝叶斯 利用概率统计知识进行分类的算法 最大化后验概率P(Ci|X)可转化为最大化先验概率P(X|Ci)P(Ci) 前提是各属性之间互相独立 逻辑回归 决策树SV ...
分类:
编程语言 时间:
2016-07-25 13:02:13
阅读次数:
440
首先,是由逻辑回归引到SVM当中。先回顾一下逻辑回归的知识。其实主要是sigmoid的函数不要搞错。
OK,既然是由逻辑回归引出来的,那么先列出逻辑回归的成本函数方程。然后对y为0和1分别进行画图讨论,形象化的图片如下。
根据上文的画图后的代表,成本函数就转变成如下的形式。
貌似下面就能直接写出SVM的成本方程了。下面只是对前面的系数进行的一些简单的变化。...
分类:
其他好文 时间:
2016-07-22 19:27:19
阅读次数:
157
机器学习的优化问题中,梯度下降法和牛顿法是常用的两种凸函数求极值的方法,他们都是为了求得目标函数的近似解。梯度下降的目的是直接求解目标函数极小值,而牛顿法则变相地通过求解目标函数一阶导为零的参数值,进而求得目标函数最小值。在逻辑回归模型的参数求解中,一般用改良的梯度下降法,也可以用牛顿法。...
分类:
其他好文 时间:
2016-07-16 07:02:38
阅读次数:
216