感谢中国人民大学胡鹤老师,课程深入浅出,非常好 关于SVM 可以做线性分类、非线性分类、线性回归等,相比逻辑回归、线性回归、决策树等模型(非神经网络)功效最好 传统线性分类:选出两堆数据的质心,并做中垂线(准确性低)——上图左 SVM:拟合的不是一条线,而是两条平行线,且这两条平行线宽度尽量大,主要 ...
分类:
其他好文 时间:
2017-10-30 14:20:34
阅读次数:
182
1、得分函数 线性分类器:在坐标系上就是一直线,大于它就是1,小于它就是0。 一张图假设是32*32*3的像素矩阵,首先把它平展为3072*1的向量,如果最后结果只能是10个类别。那么得分函数结果将是10*1的向量。w将是10*3072的矩阵,b是10*1的向量。 意思就是,这张图通过计算,属于这一 ...
分类:
其他好文 时间:
2017-10-28 22:36:38
阅读次数:
146
这节课主要是讲了些基本的numpy,scipy和线性的分类器(图像上面,比如knn),还讲了下一些损失函数 一:numpy,scipy和线性的分类器(图像上面,比如knn)主要讲代码 二:损失函数:主要是两大类 cost function、loss function、 objective(客观度) ...
分类:
其他好文 时间:
2017-10-22 21:20:33
阅读次数:
209
如上图所示,如果用逻辑回归来解决这个问题,首先需要构造一个包含很多非线性项的逻辑回归函数g(x)。这里g仍是s型函数(即 )。我们能让函数包含很多像这的多项式,当多项式足够多时,那么你也许能够得到可以分开正样本和负样本的分界线,如图下粉红色分界线所示: 当只有两项时,比如x1、x2,这种方法能够得到 ...
分类:
Web程序 时间:
2017-10-22 00:08:10
阅读次数:
225
支持向量机是一种二分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使他有别于感知机;支持向量机还包括核技巧,这使它成为实质上的非线性分类器。支持向量机的学习策略就是间隔最大化。可形式化为一个求解凸二次规划的问题。当训练数据线性可分时..
分类:
编程语言 时间:
2017-10-19 12:56:24
阅读次数:
159
1、特征选择 特征选择是一种及其重要的数据预处理方法。假设你需要处理一个监督学习问题,样本的特征数非常大(甚至),但是可能仅仅有少部分特征会和对结果产生影响。甚至是简单的线性分类,如果样本特征数超过了n,但假设函数的VC维确仍然是O(n),那么,除非大大扩展训练集的数量,否则即会带来过拟合的问题。在 ...
分类:
其他好文 时间:
2017-10-10 23:18:17
阅读次数:
161
线性分类中的是非题 --->概率题 (设置概率阈值后,大于等于该值的为O,小于改值的为X) --->逻辑回归 O为1,X为0 逻辑回归假设 逻辑函数/S型函数:光滑,单调 自变量趋于负无穷时,因变量趋于0; 自变量趋于正无穷时,因变量趋于1; 自变量取0,因变量值为0.5 ---模拟概率特性 三种线 ...
分类:
其他好文 时间:
2017-10-08 19:41:57
阅读次数:
144
线性回归假设 代价函数---均方误差 最小化样本内代价函数 只有满秩方阵才有逆矩阵 线性回归算法流程 线性回归算法是隐式迭代的 线性回归算法泛化可能的保证 线性分类是近似求解,线性回归是解析求解, 线性分类中使用0/1误差,线性回归中使用均方误差, 误差方面,线性分类能小于线性回归, 但线性回归速度 ...
分类:
其他好文 时间:
2017-10-08 12:13:19
阅读次数:
144
Perceptron Learning Algorithm 感知器算法, 本质是二元线性分类算法,即用一条线/一个面/一个超平面将1,2维/3维/4维及以上数据集根据标签的不同一分为二。 算法确定后,根据W取值的不同形成不同的h,构成假设集合H。 如2维感知器算法,根据w0,w1,w2的不同取值,构 ...
分类:
其他好文 时间:
2017-10-07 19:46:51
阅读次数:
204
支持向量机 1 概念 支持向量机是一种分类方法,通过寻求结构化、风险最小,来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较小的情况下,亦能获得良好统计规律的目的。通俗来讲,他是一种二类分类模型,基本模型定义为特征空间上的间隔最大的线性分类器,即支持向量机的学习策略便是间隔... ...
分类:
其他好文 时间:
2017-09-30 13:10:47
阅读次数:
196