1.解决回归问题 2.思想简单,实现容易 3.许多强大的非线性模型的基础 4.结果具有很好的可解释性 5.蕴含机器学习中的很多重要思想 注意:分类问题 损失函数:度量出没有拟合出样本的部分 效用函数:度量是拟合的程度 ...
分类:
编程语言 时间:
2020-01-15 23:00:41
阅读次数:
85
解决分类问题 天然可以解决多分类问题 思想简单,效果强大 使用k近邻算法解决回归问题 KNeighborsRegressor 缺点2:高度数据相关 缺点3:预测的结果不具有可解释性 缺点4:维数灾难 随着维度的增加,‘看似相近’的的两个点之间的距离越来越大 解决方法:降维(PCA) ...
分类:
编程语言 时间:
2020-01-15 21:25:12
阅读次数:
73
参考《机器学习》,周志华,清华大学出版社 第二章 回归问题 回归任务常用的度量指标是:均方误差 $$ E(f;D)=\frac {1}{m}\sum^{m}_{i=1}(f(x_{i}) y_{i})^{2} $$ 分类问题 分类任务中常用的性能度量指标是:错误率、精度 错误率:分类错误的样本数/样 ...
分类:
其他好文 时间:
2020-01-15 11:56:07
阅读次数:
91
线性判别分析(Linear Discriminant Analysis),简称LDA,是一种经典的线性学习方法。在二分类问题上最早由Fisher提出,也称"Fisher判别分析"。 在主成分分析原理总结中,我们对降维算法PCA进行了总结。这里的LDA是另一种经典的的降维算法。使用PCA进行降维,我们 ...
分类:
其他好文 时间:
2020-01-11 00:06:20
阅读次数:
110
逻辑回归公式推导 二分类问题 数据集 Z = {X,Y}, 其中结果集 $y \in \{0,1\}$ 对于给定的x, 记y=1的概率为 $p_x ( 0 \leqslant p_x \leqslant 1 )$, 那么 ${ \displaystyle p(y|x) = \left\{ \begi ...
分类:
其他好文 时间:
2020-01-09 18:32:03
阅读次数:
73
定义 以二分类问题为例,假设我们的数据集是S,数据集中的多数类为S_maj,少数类为S_min,通常情况下把多数类样本的比例为100:1,1000:1,甚至是10000:1,这种情况下为不平衡数据,不平衡数据的学习即需要在如此分布不均匀的数据集中学习到有用的信息。 问题:不均衡的数据理解预测起来很简 ...
分类:
其他好文 时间:
2020-01-08 12:45:58
阅读次数:
120
决策树是一个树形结构,类似下面这样: 上图除了根节点外,有三个叶子节点和一个非叶子节点。 在解决分类问题的决策树中,叶子节点就表示所有的分类,比如这里的分类就有3种:无聊时阅读的邮件、需及时处理的邮件、无需阅读的邮件。 使用决策树来分类某个样本数据,就是利用根节点选取的特征,将当前输入样本划分到根节 ...
分类:
其他好文 时间:
2020-01-07 13:33:18
阅读次数:
89
个人理解: 句子相似性判断、情感分析、实体识别、智能问答,本质基本上都是分类任务。 阅读理解(抽取式、回答式、完形填空)是逐个候选项的分类问题处理。 参考 https://github.com/chineseGLUE/chineseGLUE https://github.com/CLUEbenchm ...
分类:
其他好文 时间:
2020-01-03 22:51:51
阅读次数:
730
支持向量机SVM 对于分类问题,还有一种算法叫做支持向量机SVM,我们简化一下二分类数据,假设这些数据只有二维特征,其数据如下: 我们希望找到一条线,把这些数据能够分类识别,图中三条线,H1是失败的,H2和H3都可以正确分类,但是明显肉眼可以识别出,H3要比H2更好,对于新的未知数据其准确度也是更高 ...
分类:
其他好文 时间:
2020-01-01 20:33:46
阅读次数:
83
RankSVM的基本思想是,将排序问题转化为pairwise的分类问题,然后使用SVM分类模型进行学习并求解。 参考博客: Learning to Rank算法介绍:RankSVM 和 IR SVM ...
分类:
其他好文 时间:
2019-12-30 16:01:40
阅读次数:
54