码迷,mamicode.com
首页 >  
搜索关键字:adaboost    ( 359个结果
基于BP_Adaboost的强分类器设计——公司财务预警建模
算法流程:算法步骤如下:步骤一:数据选择和网络初始化步骤二:弱分类器预测步骤三:计算预测序列权重步骤四:测试数据权重调整步骤五:强分类函数
分类:其他好文   时间:2015-07-12 15:29:25    阅读次数:131
机器学习技法总结(六)Decision Tree Hypothesis
这里先再次提出我们利用aggregation获取更好性能的Hypothesis G所涉及的方法:blending,就是在得到g_set之后进行融合;learning呢?就是在线online的获取g并融合。下面就是关于整个aggregation所涉及到的方法总结: pic1 其中Bagging、AdaBoost我们都已经探讨,它们分别是基于uniform(voting / average)和no...
分类:其他好文   时间:2015-07-11 18:40:28    阅读次数:321
opencv源码之一:cvboost.cpp
我使用的是opencv2.4.9,安装后,我的cvboost..cpp文件的路径是........\opencv\sources\apps\haartraining\cvboost.cpp,研究源码那么多天,有很多收获,opencv库真是非常强大。具体内容如下: /*M//////////////////////////////////////////////////////////////...
分类:其他好文   时间:2015-07-10 19:14:47    阅读次数:213
cvTrimWeights函数详细解读
其源码在opencv的cvboost.cpp文件之中,具体内容和部分注释如下所示: /* *cvTrimWeights *作用:对小于一定阈值的权重剔除,因为权重较小的样本对训练结果影响很小,剔除后,这样在训练样本时可以缩短训练时间 */ CV_BOOST_IMPL CvMat* cvTrimWeights( CvMat* weights,//训练样本的权重矩阵 ...
分类:其他好文   时间:2015-07-10 16:42:21    阅读次数:149
cvCreateStumpClassifier
CV_BOOST_IMPL CvClassifier* cvCreateStumpClassifier( CvMat* trainData, int flags, CvMat* trainClasses, CvMat* /*typeMask*/, ...
分类:其他好文   时间:2015-07-09 13:19:10    阅读次数:123
从boost到Adaboost再到GBRT-GBDT-MART
本文是要配合《统计学习方法》才能看懂的,因为中间有些符号和定义是直接使用书本中的先弄明白以下三个公式:1)Boost(提升法)=加法模型(即基函数的线性组合)+前向分步算法+损失函数2)Adaboost=Boost+损失函数是指数函数(基函数可以任意)3)提升树=Boost+基函数是决策树(损失函数...
分类:其他好文   时间:2015-07-07 10:59:09    阅读次数:241
Bagging-Adaboost-RF的粗糙理解
三种方法都是组合方法,组合方法是使用多个分类器进行投票【构造每个分类器的样本都是通过有放回抽样得到的】1、Bagging(装袋):k次抽样,训练k次,得到k个模型(分类器),等权重投票2、Adaboost(提升):【在样本抽取上做文章,按权取样本,按权投票】 1)k次抽样:每个样本被抽到的机会由其....
分类:其他好文   时间:2015-07-07 10:53:50    阅读次数:226
CvBoostType
/* * CvBoostType * * 结构体CvBoostType 穷举boosting 类型 * * 注: * 共有四种boosting变量,这些变量都支持两分类分类器,分别如下: * Discrete AdaBoost, Real AdaBoost, LogitBoost and Gentle AdaBoost. * L2 (两类分类器) and LK (K 类分类器)算法更接近LogitBoost,但是在数值上比 Gentle AdaBoost更稳定 * 对于回...
分类:其他好文   时间:2015-07-06 16:06:46    阅读次数:166
关于Adaboost——样本抽样的权值的实际意义
看这篇文章的前提:已经看了PRML中的Adaboost的算法流程看懂下面的内容必须牢牢记住:Adaboost使用的误差函数是指数误差文章主要目的:理解样本抽样的权值是为什么那样变化的。得出的结论:训练第m个基分类器ym时,样本n的抽样权重是fm-1在样本n上的指数误差 当ym将第n个样本...
分类:其他好文   时间:2015-07-06 01:20:02    阅读次数:203
机器学习实战——组合方法与AdaBoost
对于分类问题,在给定数据集前提下,训练比较粗糙的弱分类器比精确的强分类器容易得多。另外,Schapire证明了强可学习与弱可学习是等价的,因此首先学习简单的弱分类器,并进行组合就可以得到强分类器,这就是组合方法的理论基础。 组合(Ensemble)方法是一种提高分类准确率的方法,是一个由多个弱分类器组合的复合模型,其中每个单个分类器都进行投票,组合分类器返回最终组合的结果,这样分类的结果比单个分类...
分类:其他好文   时间:2015-06-29 20:24:16    阅读次数:167
359条   上一页 1 ... 26 27 28 29 30 ... 36 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!