一、为什么不使用Linear Regression 一个简单的例子:如果训练集出现跨度很大的情况,容易造成误分类。如图所示,图中洋红色的直线为我们的假设函数。我们假定,当该直线纵轴取值大于等于0.5时,判定Malignant为真,即y=1,恶性肿瘤;而当纵轴取值小于0.5时,判定为良性肿瘤,即y=0... ...
分类:
其他好文 时间:
2017-03-07 23:01:38
阅读次数:
174
一、为什么不用Linear Regression的Cost Function来衡量Logistic Regression的θ向量 回顾一下,线性回归的Cost Function为 我们使用Cost函数来简化上述公式: 那么通过上一篇文章,我们知道,在Logistic Regression中,我们的假... ...
分类:
其他好文 时间:
2017-03-07 22:38:34
阅读次数:
371
1 %% Perceptron Regression 2 close all 3 clear 4 5 %%load data 6 x = load('ex4x.dat'); 7 y = load('ex4y.dat'); 8 9 x=ones(80,2); 10 for i=1:80 11 x(i,... ...
分类:
其他好文 时间:
2017-02-23 21:17:51
阅读次数:
231
一、问题引入首先,Logistic回归是一种广义的线性回归模型,主要用于解决二分类问题。比如,现在我们有N个样本点,每个样本点有两维特征x1和x2,在直角坐标系中画出这N个样本的散点图如下图所示,
...
分类:
编程语言 时间:
2017-02-19 18:53:06
阅读次数:
373
又查查了回归分析的基本概念,这里记录一下,年纪大了容易忘lol 线性回归模型Linear Regression Models: 例如数据有n个观察结果(yi,xi)i从1到n,yi是这个观察的响应标量值(a scalar response),xi是一组含p个预言值(predictor)的向量 在线性 ...
分类:
其他好文 时间:
2017-02-15 10:47:48
阅读次数:
158
局部加权回归(Locally Weighted Regression, LWR) 局部加权回归使一种非参数方法(Non-parametric)。在每次预测新样本时会重新训练临近的数据得到新参数值。意思是每次预测数据需要依赖训练训练集,所以每次估计的参数值是不确定的。 局部加权回归优点: 需要预测的数... ...
分类:
其他好文 时间:
2017-02-09 21:55:57
阅读次数:
155
第二周 第一部分 Multivariate Linear Regression Multiple Features Note: [7:25 - θT is a 1 by (n+1) matrix and not an (n+1) by 1 matrix] Linear regression with ...
分类:
系统相关 时间:
2017-01-29 18:28:09
阅读次数:
340
我们将讨论逻辑回归。 逻辑回归是一种将数据分类为离散结果的方法。 例如,我们可以使用逻辑回归将电子邮件分类为垃圾邮件或非垃圾邮件。 在本模块中,我们介绍分类的概念,逻辑回归的损失函数(cost functon),以及逻辑回归对多分类的应用。 我们还涉及正规化。 机器学习模型需要很好地推广到模型在实践 ...
分类:
其他好文 时间:
2017-01-26 23:19:54
阅读次数:
288
相比于week1中讨论的单变量的线性回归,多元线性回归更具有一般性,应用范围也更大,更贴近实际。 Multiple Features 上面就是接上次的例子,将房价预测问题进行扩充,添加多个特征(features),使问题变成多元线性回归问题。 多元线性回归将通过更多的输入特征,来预测输出。上面有新的 ...
分类:
其他好文 时间:
2017-01-24 22:52:11
阅读次数:
320
The following is a guest post by Garris Shipon . We've touched on the four types of CSS testing here before. Regression testing is the hardest. It's t ...
分类:
Web程序 时间:
2017-01-23 22:48:24
阅读次数:
390