1、K-近邻算法原理 1.1 算法特点 简单地说,k-近邻算法采用测量不同特征值之间的距离方法进行分类。 优点:精度高、对异常值不敏感、无数据输入假定 缺点:计算复杂度高、空间复杂度高 适用数据范围:数值型和标称型 1.2 工作原理 存在一个训练样本集,并且每个样本都存在标签(有监督学习)。输入没有 ...
分类:
编程语言 时间:
2017-07-24 20:24:12
阅读次数:
136
转自 飞鸟各投林 4、聚类算法 前面的算法中的一个显著特征就是我的训练数据中包含了标签,训练出的模型可以对其他未知数据预测标签。在下面的算法中,训练数据都是不含标签的,而算法的目的则是通过训练,推测出这些数据的标签。 这类算法有一个统称,即无监督算法(前面有标签的数据的算法则是有监督算法)。无监督算 ...
分类:
编程语言 时间:
2017-07-18 15:28:28
阅读次数:
177
文本分类单层网络就够了。非线性的问题用多层的。 fasttext有一个有监督的模式,但是模型等同于cbow,只是target变成了label而不是word。 fastText有两个可说的地方:1 在word2vec的基础上, 把Ngrams也当做词训练word2vec模型, 最终每个词的vector ...
分类:
其他好文 时间:
2017-07-14 00:40:42
阅读次数:
11624
1.KNN定义KNN属于有监督的学习,其基本思想是:在已知分类的一个训练数据集中,输入新的未知分类的实例,通过与训练数据集中的数据一一对比,找到与该实例最近的k个实例,这k个实例的多数属于某个类,则将该输入实例分为这个类。如下图,绿色圆作为未知分类的数据被输入,此时..
分类:
其他好文 时间:
2017-07-09 21:52:47
阅读次数:
117
作者:赵杨链接:https://www.zhihu.com/question/23194489/answer/75555668来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 机器(计算机)学习分为有监督和无监督两个类,基本上可以从他们会不会得到一个特定的标签(labe ...
分类:
其他好文 时间:
2017-07-05 15:14:59
阅读次数:
165
转自:http://www.cnblogs.com/jerrylead 1 摘要 本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识。前四节主要讲述了回归问题,回归属于有监督学习中的一种方法。该方法的核心思想是从连续型统计数据中得到数学模型,然后将该数学模型用于预测或者分类。该方 ...
分类:
其他好文 时间:
2017-07-03 21:01:32
阅读次数:
282
有监督的分类算法的评价指标通常是accuracy, precision, recall, etc;由于聚类算法是无监督的学习算法,评价指标则没有那么简单了。因为聚类算法得到的类别实际上不能说明任何问题,除非这些类别的分布和样本的真实类别分布相似,或者聚类的结果满足某种假设,即同一类别中样本间的相似性 ...
分类:
其他好文 时间:
2017-06-19 19:48:19
阅读次数:
456
在我们设计无监督学习模型时,应尽量做到 无监督学习的目标是为有监督模型提供初始化的参数,理想情况是“这些初始化的参数能够极大提高后续有监督模型准确率,即使有监督任务的训练样本数很少”。类别理解就是,我们在Imagenet上通过有监督的方式训练得到了表达能力很强的网络,在我们迁移至新的任务时(该任务带 ...
分类:
其他好文 时间:
2017-06-07 00:49:48
阅读次数:
173
一、机器学习介绍 什么是机器学习?计算机程序从经验E(给一些样本数据)中学习任务T,用度量P来衡量性能,并且由P定义的关于T的性能会随着经验E而提高 机器学习分为:有监督学习(给出数据样本的标签)、无监督学习(没有给出数据样本的标签)、半监督学习(给出少量的有标签数据,和大量没有标签的数据)、强化学 ...
分类:
其他好文 时间:
2017-06-06 23:24:41
阅读次数:
234
无监督学习 1.无监督学习的目标: 利用无标签的数据学习数据的分布或数据与数据之间的关系被称为无监督学习。 1.有监督学习和无监督学习的最大区别在于数据是否有标签 2.无监督学习最常应用的场景是聚类(clustering)和降维(Dimension Reduction) 2.聚类(clusterin ...
分类:
其他好文 时间:
2017-06-04 18:43:10
阅读次数:
332