【机器学习】机器学习的经典算法 https://mp.weixin.qq.com/s/CxSG9l_dxA4G-SZKOGI1ng 本文为整篇文章第二部分,整篇文章主要目录如下: 1:一个故事说明什么是机器学习 2:机器学习的定义 3:机器学习的经典算法 4:机器学习的应用--大数据 5:机器学习的 ...
分类:
编程语言 时间:
2018-08-22 14:06:51
阅读次数:
146
1 引言 1.1 维度灾难 分类为例:如最近邻分类方法(基本思想:以最近的格子投票分类) 问题:当数据维度增大,分类空间爆炸增长。如图1所示, 图1 维度增加示意图 1.2 解决方法 缓解维度遭难的一个重用途径是降维。降维是通过某种数学变换,将原始高维属性空间转换为一个低维“子空间”,在这个子空间中 ...
分类:
其他好文 时间:
2018-08-21 22:33:04
阅读次数:
302
Question "167. Two Sum II Input array is sorted" Solution 题目大意:和Two Sum一样,这里给出的数组是有序的 思路:target nums[i],这样就实现了降维了 Java实现: ...
分类:
其他好文 时间:
2018-08-16 20:54:00
阅读次数:
139
1.特征值分解 2.奇异值分解 奇异值的物理意义是什么? 奇异值分解(SVD)原理详解及推导 奇异值分解(SVD)原理与在降维中的应用 3. ...
分类:
其他好文 时间:
2018-08-16 17:37:47
阅读次数:
143
使用sklearn库中的PCA类进行主成分分析。 导入要用到的库,还没有的直接pip安装就好了。 PCA类的主要输入参数有以下几个: n_components :这个参数可以帮我们指定希望PCA降维后的特征维度数目。 最常用的做法是直接 指定降维到的维度数目 ,此时n_components是一个大于 ...
分类:
编程语言 时间:
2018-08-15 17:47:56
阅读次数:
758
PCA和LDA都是经典的降维算法。PCA是无监督的,也就是训练样本不需要标签;LDA是有监督的,也就是训练样本需要标签。PCA是去除掉原始数据中冗余的维度,而LDA是寻找一个维度,使得原始数据在该维度上投影后不同类别的数据尽可能分离开来。 PCA PCA是一种正交投影,它的思想是使得原始数据在投影子 ...
分类:
其他好文 时间:
2018-08-11 01:40:09
阅读次数:
334
一 Manifold Learning 我们要做的是非线性的降维,data是分布在低维空间里面,只是被扭曲到了高维空间。 比如地球的表面是一个二维平面,但是被塞到一个三维空间中。 Manifold就是把S型摊平,将高维空间内的低维数据展开,这样才能计算点对点的距离。 二 几种方法 2.1 Local ...
分类:
其他好文 时间:
2018-08-10 23:10:55
阅读次数:
201
1.数据压缩 数据压缩不仅能够减小存储空间,并且能够加速学习算法。那么什么是数据压缩呢?下面给出了一个简单的例子: 图1.数据压缩的概念 举了两个例子,一个是横轴x1是厘米,纵轴特征x2是英尺,这明显是冗余的,但是在真正的实施过程中,这并不常见,这并不是一个好例子。 另一个例子是,横轴是驾驶员的技术 ...
分类:
其他好文 时间:
2018-08-10 23:04:11
阅读次数:
165
一 Unsupervised Learning 把Unsupervised Learning分为两大类: 化繁为简:有很多种input,进行抽象化处理,只有input没有output 无中生有:随机给一个input,自动画一张图,只有output没有input 二 Clustering 有一大堆im ...
分类:
其他好文 时间:
2018-08-10 21:12:34
阅读次数:
278
阅读目录 1. SimHash与传统hash函数的区别 2. SimHash算法思想 3. SimHash流程实现 4. SimHash签名距离计算 5. SimHash存储和索引 6. SimHash存储和索引 7. 参考内容 阅读目录 1. SimHash与传统hash函数的区别 2. SimH ...
分类:
其他好文 时间:
2018-08-10 19:52:50
阅读次数:
214