Logistic Regression 笔记与理解 Logistic Regression Hypothesis 记为 H(theta) H(theta)=g(z) 当中g(z),是一个叫做Logistic Function的函数。g(z)函数定义例如以下: 相应图像例如以下: 这是一个值域为0~1 ...
分类:
其他好文 时间:
2017-07-22 16:42:26
阅读次数:
118
SoftMax实际上是Logistic的推广,当分类数为2的时候会退化为Logistic分类 其计算公式和损失函数如下, 梯度如下, 1{条件} 表示True为1,False为0,在下图中亦即对于每个样本只有正确的分类才取1,对于损失函数实际上只有m个表达式(m个样本每个有一个正确的分类)相加, 对 ...
分类:
其他好文 时间:
2017-07-22 12:14:47
阅读次数:
249
机器学习第2课:单变量线性回归(Linear Regression with One Variable) ...
分类:
其他好文 时间:
2017-07-20 15:21:14
阅读次数:
134
本文原始版本号见http://blog.csdn.net/abcjennifer/article/details/7834256 本栏目(Machine learning)包含单參数的线性回归、多參数的线性回归、Octave Tutorial、Logistic Regression、Regulari ...
分类:
其他好文 时间:
2017-07-20 15:11:59
阅读次数:
207
R需要包:mice包;AUC包或pROC包 需要知识:logistic回归;SVM;GAM;缺失值多重插补法;拟合效果ROC、AUC In cancer studies, a question of critical interest is the progression of cancer. He ...
分类:
其他好文 时间:
2017-07-18 01:32:45
阅读次数:
662
主要思想:根据现有数据对分类边界线建立回归公式,以此进行分类 优点:计算代价不高,易于理解和实现 缺点:容易欠拟合,分类精度可能不高 适用数据类型:数值型和标称型数据 回归的结果为一个数值型数据,利用Sigmoid函数(平缓的阶跃函数)将其归一化到[0,1]之间,之后设定阈值以进行分类。 simoi ...
分类:
其他好文 时间:
2017-07-16 23:27:02
阅读次数:
188
对于某些线性回归问题,正规方程方法可能更加简单高效。 正规方程推导过程如下: 梯度下降法和正规方程的比较: 总结: 只要特征数量并不是特别大,对于线性回归问题正规方程是一个比梯度下降算法更快的替代算法。但是当特征数量非常多的时候或者模型更复杂的时候(比如logistic regression等),正 ...
分类:
其他好文 时间:
2017-07-14 23:07:02
阅读次数:
357
在拿到一组数据时,我们需要先观察数据选择特征甚至构造特征,然后选择合适的模型。 线性回归并不适用所有数据,有时候我们需要用曲线来拟合我们的数据。 比如一个二次模型: 或者三次模型: 对于多项式模型,我们可以构造特征如: x2 = x22 x3 = x33 从而可以把模型转化为线性回归模型。 注:在构 ...
分类:
其他好文 时间:
2017-07-14 19:32:10
阅读次数:
166
1 Gradient Checking 说明前面我们已经实现了Linear Regression和Logistic Regression。关键在于代价函数Cost Function和其梯度Gradient的计算。在Gradient的计算中,我们一般採用推导出来的计算公式来进行计算。可是我们看到,推导 ...
分类:
其他好文 时间:
2017-07-13 10:34:47
阅读次数:
188
机器学习中的大多数问题可以归结为最优化问题。把一些典型的问题用最优化的方法建立数学模型,再最优化的方式求解。 我们再看看数据挖掘和机器学习中哪些是最优化问题,哪些不是。 ...
分类:
其他好文 时间:
2017-07-12 21:16:58
阅读次数:
159