码迷,mamicode.com
首页 > 其他好文 > 详细

集成学习注意要点

时间:2017-10-18 10:08:41      阅读:117      评论:0      收藏:0      [点我收藏+]

标签:组成   速度   优化   随机森林   分布式计算   并行计算   标准   gbdt   机器   

  1. 集成学习是一种机器学习的框架,它会创建多个子模型,通过集成这些子模型的预测结果共同提升学习效果。
  2. 集成学习主要分为三种类型:baggingboostingstacking
  3. 集成学习中Bagging方法是将训练集自动抽样,产生出用于构建子模型的子训练集,再进行综合打分得到最终结果。
  4. 集成学习中的boosting方法是按照顺序构建子模型,每训练下一个子模型之前,需对上一个子模型预测的结果进行一定的融合变换,以保证后一次训练能够给整体学习效果带来提升,最终的预测结果是通过一定权重值将各个子模型线性组合后得到。
  5. 集成学习中的stacking方法,是对每个子模型进行训练,并将各个子模型预测的结果作为新的特征,对新特征组成的训练集重新构建模型,最终的预测结果由此得到。
  6. 集成学习的bagging方法,典型算法是随机森林。
  7. 集成学习中boosting方法,性能最优的框架是XGBOOST.
  8. GBDT是通过boosting方法构造一组子模型,与传统回归模型相比,有点主要有:

    不需要对特征进行归一化或标准化处;能够自动进行特征选择;可以分布式并行计算。

  9. XGBOOST框架是对GBDT的优化设计,它的优点主要有

    1. 可以分布式计算,速度极快
    2. 可移植,对代码要求低
    3. 可容错,节点故障不影响计算过程和结果导出

集成学习注意要点

标签:组成   速度   优化   随机森林   分布式计算   并行计算   标准   gbdt   机器   

原文地址:http://www.cnblogs.com/xiaojuhere/p/7684968.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!