1.基本思想: 综合某些专家的判断,往往要比一个专家单独的判断要好。在”强可学习”和”弱科学习”的概念上来说就是我们通过对多个弱可学习的算法进行”组合提升或者说是强化”得到一个性能赶超强可学习算法的算法。如何地这些弱算法进行提升是关键!AdaBoost算法是其中的一个代表。 2.分类算法提升的思路: ...
分类:
编程语言 时间:
2016-12-27 23:30:32
阅读次数:
740
文章链接: http://pan.baidu.com/s/1bQBJMQ 密码:4772 作者在这里提出了基于神经网络的Cascade方法,Cascade最早可追溯到Haar Feature提取时用到的Adaboost算法(参考这个博客:http://blog.csdn.net/zouxy09/ar ...
分类:
Web程序 时间:
2016-12-18 01:31:25
阅读次数:
255
在集成学习之Adaboost算法原理小结中,我们对Adaboost的算法原理做了一个总结。这里我们就从实用的角度对scikit-learn中Adaboost类库的使用做一个小结,重点对调参的注意事项做一个总结。 1. Adaboost类库概述 scikit-learn中Adaboost类库比较直接, ...
分类:
其他好文 时间:
2016-12-06 20:50:43
阅读次数:
612
在集成学习原理小结中,我们讲到了集成学习按照个体学习器之间是否存在依赖关系可以分为两类,第一个是个体学习器之间存在强依赖关系,另一类是个体学习器之间不存在强依赖关系。前者的代表算法就是是boosting系列算法。在boosting系列算法中, Adaboost是最著名的算法之一。Adaboost既可 ...
分类:
编程语言 时间:
2016-12-06 01:59:10
阅读次数:
207
当做重要决定时,我们可能会考虑吸取多个专家而不只是一个人的意见。机器学习处理问题也是这样,这就是元算法(meta-algorithm)背后的思路。 元算法是对其他算法进行组合的一种方式,其中最流行的一种算法就是AdaBoost算法。某些人认为AdaBoost是最好的监督学习的方法,所以该方法是机器学 ...
分类:
编程语言 时间:
2016-11-28 00:57:50
阅读次数:
267
Adaboost原理 Adaboost(AdaptiveBoosting)是一种迭代算法,通过对训练集不断训练弱分类器,然后把这些弱分类器集合起来,构成强分类器。adaboost算法训练的过程中,初始化所有训练样例的具有相同的权值重,在此样本分布下训练出一个弱分类器,针对错分样本加大对其对应的权值, ...
分类:
其他好文 时间:
2016-10-26 20:11:12
阅读次数:
258
0 引言 一直想写Adaboost来着,但迟迟未能动笔。其算法思想虽然简单“听取多人意见,最后综合决策”,但一般书上对其算法的流程描述实在是过于晦涩。昨日11月1日下午,邹博在我组织的机器学习班第8次课上讲决策树与Adaboost,其中,Adaboost讲得酣畅淋漓,讲完后,我知道,可以写本篇博客了 ...
分类:
编程语言 时间:
2016-09-27 19:33:08
阅读次数:
221
详细分析了弱分类器和强分类器的定义和原理,给出了如何从弱分类器来构造所需要的强分类器,最后从统计数据的角度来分析了为什么Haar特征可以用来分类。
分类:
编程语言 时间:
2016-09-23 13:26:01
阅读次数:
383
对AdaBoost算法的历史进行了梳理,从PAC学习模型入手,到弱学习和强学习的等价性,以及各路大牛在该算法的发展史上的历史贡献。
分类:
其他好文 时间:
2016-09-20 14:02:40
阅读次数:
208