码迷,mamicode.com
首页 > 其他好文 > 详细

决策树模型、本质、连续值

时间:2018-05-23 00:01:55      阅读:169      评论:0      收藏:0      [点我收藏+]

标签:信息增益   数通   准则   数据集   应用   学习方法   启发式   优化问题   条件   

摘自《统计学习方法》 李航  第五章

决策树学习通常包括3个步骤:特征选择、决策树的生成、决策树的剪枝

 

决策树学习本质上是从训练集中归纳出一组分类规则。

决策树学习的损失函数通常是正则化的极大似然函数。

决策树的学习算法通常是采用启发式的方法,近似求解最优化问题

 

特征选择问题

特征选择在于选取对训练数据具有分类能力的特征。如果一个特征具有更好的分类能力,或者说,按照这一特征将训练数据集分割成子集,

使得各个子集在当前条件下有最好的分类,那么就更应该选择这个特征。

决策树的生成

ID3算法

ID3算法的核心是在决策树的各个节点上应用信息增益准则选择特征,递归的构建决策树。

缺点:ID3算法只有树的生成,所以该算法生成的树容易产生过拟合。

决策树模型、本质、连续值

标签:信息增益   数通   准则   数据集   应用   学习方法   启发式   优化问题   条件   

原文地址:https://www.cnblogs.com/zhibei/p/9074380.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!