Sklearn RandomForest算法(有监督学习),可以根据输入数据,选择最佳特征组合,减少特征冗余; 原理:由于随机决策树生成过程采用的Boostrap,所以在一棵树的生成过程并不会使用所有的样本,未使用的样本就叫(Out_of_bag)袋外样本,通过袋外样本,可以评估这个树的准确度,其他 ...
分类:
编程语言 时间:
2019-09-30 23:18:00
阅读次数:
204
在基于TensorFlow的深度学习框架大红大紫之前,流行过很多的经典机器学习框架。比如KNN,比如支撑向量机,比如随机森林。相对于深度学习的理论,这些经典的机器学习算法构建在更为精密的数学推导上。运筹学,最优化理论,数学分析,数理统计和随机过程构成了这些算法的理论基础,也是进一步学习各种基于神经网 ...
分类:
编程语言 时间:
2019-09-29 14:25:46
阅读次数:
175
今天在数据人网上看到一篇文章。区分监督学习和无监督学习,监督学习的数据就是有标签数据,无监督学习的数据就是无标签数据。这是我的理解,欢迎指教。 原文链接http://www.shujuren.org/article/62.html 原文如下 监督式和非监督式机器学习算法 作者 Frankchen 什 ...
分类:
其他好文 时间:
2019-09-23 22:38:36
阅读次数:
406
1.什么是集成学习 什么是集成学习,以前我们都是使用一个算法来进行预测,难免会有"独断专行"的感觉。集成学习是将多个算法集成在一块,然后多个算法对同一个问题进行预测,然后少数服从多数,这便是集成学习。 我们生活中有很多集成学习的例子,比如买东西的时候看推荐,如果10个人推荐你买A产品,但是只有1个人 ...
分类:
其他好文 时间:
2019-09-15 23:55:11
阅读次数:
173
本节主要用于机器学习入门,介绍两个简单的分类模型: 决策树和随机森林 不涉及内部原理,仅仅介绍基础的调用方法 1. How Models Work 以简单的决策树为例 This step of capturing patterns from data is called fitting or tra ...
分类:
系统相关 时间:
2019-09-07 22:01:17
阅读次数:
172
一面,电话(20190903) 1. 介绍下你自己 2.详细介绍个你自己觉得擅长的项目 3.这个项目的创新点 4.你觉得你怎么在cv领域做的突出 5.除了图像类算法,你还懂别的算法吗? 6.详细的讲一下逻辑回归的推导吧,以及你在哪里用到这个算法的案例 7.随机森林和GBDT算法的区别 8.2根绳子, ...
分类:
其他好文 时间:
2019-09-03 22:29:02
阅读次数:
130
秉承bagging; 构造多颗相互独立CART决策树,形成一个森林,共同决策输出; 两个随机: 1)输入数据随机:从全体数据中又放回的选取部分数据; 2)每颗决策树构建的特征是从全体特征中随机选取;(从M个特征中选m个,再从这m个选取最优特征作为节点) 优点: 1)不易过拟合,抗噪能力强; 2)高度 ...
分类:
其他好文 时间:
2019-09-01 15:06:41
阅读次数:
112
一、bagging和boosting的区别 参考:https://blog.csdn.net/blank_tj/article/details/82229322 简单总结Bagging:对数据集进行多次有放回抽样,每次的抽样进行分类计算生成弱分类器,分类问题就是把每一次的计算结果进行投票,看哪一种情 ...
分类:
其他好文 时间:
2019-08-19 10:03:43
阅读次数:
630
一、集成学习 集成学习就是合并多个分类器的预测。一般会在一个项目快结束的时候使用集成算法,一旦建立了一些好的分类器,就可以使用集成把它们合并成一个更好的分类器。著名的集成方法:投票分类、bogging、pasting、boosting、stacking、和一些其它算法。 1.1 投票分类(少数服从多 ...
分类:
其他好文 时间:
2019-08-15 16:00:03
阅读次数:
78
梯度下降法 [TOC] 梯度下降法,是一种基于搜索的最优化方法,最用是最小化一个损失函数。 一、什么是梯度下降? ? 机器学习算法都需要最大化或最小化一个函数,这个函数被称为"目标函数",其中我们一般把最小化的一类函数,称为"损失函数"。它能根据预测结果,衡量出模型预测能力的好坏。在求损失函数最小化 ...
分类:
其他好文 时间:
2019-08-08 19:42:49
阅读次数:
125