问题引入 下面的三个超平面都起到分类的效果,哪个最好? 答案显然是第三个。为什么? 直觉上,如果现在我们有个测试点,非常靠近右下角的那个红叉叉,也就是说这个点的特征与那个红叉叉非常接近,这时候,我们希望我们的分类器能够将这个测试点划分为与红叉叉相同的类。 也就是说,我们希望,找到的超平面能够远离所有 ...
分类:
编程语言 时间:
2017-07-02 20:27:27
阅读次数:
186
点(x,y)到平面(w,b)的距离公式是:$\gamma=\frac{1}{||w||}y(xw+b)$。我们称之为几何间隔。另外$\hat{\gamma}=y(xw+b)$记为函数间隔。 SVM的基本思路就是,寻找一个能够正确划分数据集,并且几何间隔最大的超平面。这个目标可以表达为: $$\max ...
分类:
其他好文 时间:
2017-07-01 17:26:39
阅读次数:
177
本节简介一下libsvm的用法。关于libsvm似乎以前使用过。那个时候主要用libsvm进行简单的人脸识别实验。当时还翻译过关于libsvm里面的matlab英文文档 介绍与分类实验 那么如今最新版本号的libsvm为3.2.0,下载地址例如以下: http://www.csie.ntu.edu. ...
分类:
其他好文 时间:
2017-06-30 13:52:52
阅读次数:
3004
编者按:本文收集了百来篇关于机器学习和深度学习的资料,含各种文档,视频,源码等。并且原文也会不定期的更新。望看到文章的朋友能够学到很多其它。 《Brief History of Machine Learning》 介绍:这是一篇介绍机器学习历史的文章,介绍非常全面,从感知机、神经网络、决策树、SVM ...
分类:
其他好文 时间:
2017-06-27 18:48:42
阅读次数:
276
机器学习(Machine Learning)&深度学习(Deep Learning)资料 《Brief History of Machine Learning》 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机、神经网络、决策树、SVM、Adaboost到随机森林、Deep Learnin ...
分类:
系统相关 时间:
2017-06-27 09:58:09
阅读次数:
384
SGD 中 stochastic 什么意思: Mini-Batch。。。 随机梯度下降算法(SGD)是mini-batch GD的一个特殊应用。SGD等价于b=1的mini-batch GD。即,每个mini-batch中只有一个训练样本。full batch GD每一轮迭代需要所有样本参与,对于大 ...
分类:
其他好文 时间:
2017-06-27 08:06:21
阅读次数:
328
SVMtrain的参数c和g的优化在svm训练过程中,需要对惩罚参数c和核函数的参数g进行优化,选取最好的参数知道测试集标签的情况下是让两个参数c和g在某一范围内取离散值,然后,取测试集分类准确率最佳的参数不知道测试集标签的情况下 (1)利用交叉验证的方法:(k-fold cross validat... ...
分类:
其他好文 时间:
2017-06-26 22:46:23
阅读次数:
293
支持向量机通俗导论(理解SVM的三层境界) 支持向量机通俗导论(理解SVM的三层境界) 作者:July 。致谢:pluskid、白石、JerryLead。说明:本文最初写于2012年6月,而后不断反反复复修改&优化,修改次数达上百次,最后修改于2016年11月。声明:本文于2012年便早已附上所有参 ...
分类:
其他好文 时间:
2017-06-26 19:03:50
阅读次数:
223
一、SVM原问题及要变成对偶问题的解决办法 对于SVM的,我们知道其终于目的是求取一分类超平面,然后将新的数据带入这一分类超平面的方程中,推断输出结果的符号,从而推断新的数据的正负。而求解svm分类器模型。终于能够化成例如以下的最优化问题: minw,bs.t.12∥w∥21?yi(w?xi+b)≤ ...
分类:
其他好文 时间:
2017-06-24 10:11:17
阅读次数:
345
编者按:本文收集了百来篇关于机器学习和深度学习的资料,含各种文档,视频,源码等。而且原文也会不定期的更新,望看到文章的朋友能够学到更多。 《Brief History of Machine Learning》 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机、神经网络、决策树、SVM、Ad ...
分类:
其他好文 时间:
2017-06-24 09:56:09
阅读次数:
249