目前已有很多方法和技术用于构造分类模型,如决策树、神经网络、贝叶斯方法、Fisher线性分析(Fld)以及支持向量机(Support Vector
Machine, SVM)。基于超完备字典的信号稀疏分解是一种新的信号表示理论,其采用超完备的冗余函数系统代替传统的正交基函数,为信号自适应的稀疏扩展提...
分类:
其他好文 时间:
2014-06-08 21:02:36
阅读次数:
22018
转自:http://blog.csdn.net/yangliuy/article/details/7316496SVM入门(一)至(三)Refresh按:之前的文章重新汇编一下,修改了一些错误和不当的说法,一起复习,然后继续SVM之旅.(一)SVM的简介支持向量机(Support
Vector Ma...
分类:
其他好文 时间:
2014-06-07 08:59:25
阅读次数:
321
神经网络常用于机器学习中的分类,常用的分类算法有:朴素贝叶斯,遗传算法,神经网络,支持向量机等。
在互联网发达的今天,有很多东西需要进行分类,在分类之前,我们常常是有一些数据,找出这些数据符合什么样的
模型,然后根据这些已有数据来预测将来,神经网络就是用来进行这种数据建模的。
神经网络一般情况是有个输入,有个输出,在输入层和输出层之间通常还有若干个隐含层。实际上,在1989年...
分类:
其他好文 时间:
2014-06-05 02:40:25
阅读次数:
261
学了好多遍,每次常学常新。这次继续学习,目标有两个:1. 找到直觉性的认识,有直观理解。2.
在R语言中用SVM做实验,学习相关的包 推荐一个很好的博客:http://blog.pluskid.org/?page_id=683
一系列文章,讲的很详细,公式和示意图也很好。用心的作者啊。 还有Sta....
分类:
其他好文 时间:
2014-05-26 13:18:13
阅读次数:
283
引自
http://my.oschina.net/wangguolongnk/blog/1113491.
支持向量机的目的是什么?对于用于分类的支持向量机来说,给定一个包含正例和反例(正样本点和负样本点)的样本集合,支持向量机的目的是寻找一个超平面来对样本进行分割,把样本中的正例和反例用超平面分开,...
分类:
其他好文 时间:
2014-05-24 09:25:03
阅读次数:
328
一、我们先回顾下SVM问题。
A、线性可分问题
1、SVM基本原理:
SVM使用一种非线性映射,把原训练 数据映射到较高的维。在新的维上,搜索最佳分离超平面,两个类的数据总可以被超平面分开。
2、问题的提出:
3、如何选取最优的划分直线f(x)呢?
4、求解:凸二次规划
建立拉格朗日函数:
求偏导数:
...
分类:
其他好文 时间:
2014-05-22 17:10:54
阅读次数:
475
SVM(支持向量机),一种二类分类器,之所以称之为向量机,是因为它本身就产生一个二值决策结果,即使一种决策“机”,支持向量机的泛化错误低(具有结构风险最小),具有很强的学习能力,因此很多人认为它是最好的监督学习算法。SVM与Logistic回归的联系:
logistic回归的目的就是从特征...
分类:
其他好文 时间:
2014-05-19 17:48:15
阅读次数:
364
SVM(Support Vector Machine),中文名为 支持向量机,就像自动机一样,听起来异常神气,最初总是纠结于不是机器怎么能叫“机”,后来才知道其实此处的“机”实际上是算法的意思。
支持向量机一般用于分类,基本上,在我的理解范围内,所有的机器学习问题都是分类问题。而据说,SVM是效果最好而成本最低的分类算法。
SVM是从线性可分的情况下最优分类面发展而来的,其基本思想可以用下图表...
分类:
其他好文 时间:
2014-05-18 10:17:23
阅读次数:
309
一、核函数的引入
问题1:
SVM显然是线性分类器,但数据如果根本就线性不可分怎么办?
解决方案1:
数据在原始空间(称为输入空间)线性不可分,但是映射到高维空间(称为特征空间)后很可能就线性可分了。
问题2:
映射到高维空间同时带来一个问题:在高维空间上求解一个带约束的优化问题显然比在低维空间上计算量要大得多,这就是所谓的“维数灾难”。
解决方案2:
于是就引入了“核...
分类:
其他好文 时间:
2014-05-11 04:12:21
阅读次数:
443