五、精准率和召回率的平衡 Precision-Recall 的平衡 六、精准率-召回率曲线 七、ROC曲线 Receiver Operation Characteristic Curve 描述 TPR 和 FPR 之间的关系 metrics.py 八、多分类问题中的混淆矩阵 我写的文章只是我自己对b ...
分类:
其他好文 时间:
2018-09-01 20:33:37
阅读次数:
172
朴素贝叶斯分类器是一组简单快速的分类算法。网上已经有很多文章介绍,比如这篇写得比较好:https://blog.csdn.net/sinat_36246371/article/details/60140664。在这里,我按自己的理解再整理一遍。 在机器学习中,我们有时需要解决分类问题。也就是说,给定 ...
分类:
系统相关 时间:
2018-08-31 00:33:19
阅读次数:
293
分类问题有时是个回归问题。这就需要找到阈值来将样本准确地划分到类别。 例如一个文本情感分类问题:情感有0(消极)、1(中性)、2(积极)三种类别。回归器返回的情感的分值分别为0.2,0.3,0.4,0.45,0.66,1.2,1.3,1.4,它们对应的类别分别为0,0,1,2,1,1,2,2,需要找 ...
分类:
其他好文 时间:
2018-08-30 00:14:07
阅读次数:
258
tanh(z) = (ez - e-z ) / ( ez + e-z ) tanh函数几乎在所有场合都更优越 用σ激活函数的一个例外场合是:使用二元分类的时候。因为二元分类问题概率数值应在(0,1)之间 因此可以在隐藏层用tanh函数,在输出层y帽计算时用σ函数 现在σ函数和tanh函数都有一个缺点 ...
分类:
其他好文 时间:
2018-08-29 14:46:43
阅读次数:
212
逻辑斯谛回归(logistic regression)是统计学习中的经典分类方法 最大熵是概率模型学习的一个准则,被推广到分类问题后可得到最大熵模型(Maximum Entropy Model) 逻辑斯谛回归模型与最大熵模型都属于对数线性模型,而对数线性模型又是广义线性模型的一种。 科普一下:狭义的 ...
分类:
其他好文 时间:
2018-08-29 01:09:36
阅读次数:
452
关于常见的聚类算法的详解可以参见 "K均值聚类和高斯混合聚类" 一文。 本文内容仅适于机器学习初学者 可能刚接触机器学习过后都知道,聚类属于无监督学习的范畴,而分类问题是有监督学习里常见的任务,二者都有个划分类别的过程,为什么聚类方法不能用于分类呢? 我们做分类任务的时候首先需要一批已标注好的样本, ...
分类:
编程语言 时间:
2018-08-28 20:22:26
阅读次数:
189
观点1:XGBoost要比深度学习更重要。2016年Kaggle大赛29个获奖方案中,17个用了XGBoost。因为它好用,在很多情况下都更为可靠、灵活,而且准确;在绝大多数的回归和分类问题上,XGBoost的实际表现都是顶尖的。 观点2:针对非常要求准确度的那些问题,XGBoost确实很有优势,同 ...
分类:
其他好文 时间:
2018-08-28 11:24:47
阅读次数:
246
CentOS下g++: command not found问题的解决 2017年02月27日 18:09:06 阅读数:5174 标签: centosgcc 更多 个人分类: 问题分析 CentOS下g++: command not found问题的解决 2017年02月27日 18:09:06 阅 ...
分类:
编程语言 时间:
2018-08-27 18:29:34
阅读次数:
273
传统的GBDT是以CART作为基分类器,xgboost还支持线性分类器,这个时候XGBOOST相当于带L1和L2正则化的逻辑斯蒂回归(分类问题)或者线性回归(回归问题)。传统的GBDT在优化的hih只用到一阶导数信息,xgboost则对代价函数进行了二阶泰勒展开,同时用到了一阶和二阶导数。顺便提一下 ...
分类:
其他好文 时间:
2018-08-27 11:27:56
阅读次数:
188
线性回归是一种回归分析技术,回归分析本质上就是一个函数估计的问题(函数估计包括参数估计和非参数估计),就是找出因变量和自变量之间的因果关系。回归分析的因变量是应该是连续变量,若因变量为离散变量,则问题转化为分类问题,回归分析是一个有监督学习问题。 线性其实就是一系列一次特征的线性组合,在二维空间中是 ...
分类:
其他好文 时间:
2018-08-26 15:35:44
阅读次数:
188