在keras中,数据是以张量的形式表示的,张量的形状称之为shape,表示从最外层向量逐步到达最底层向量的降维解包过程。“维”的也叫“阶”,形状指的是维度数和每维的大小。比如,一个一阶的张量[1,2,3]的shape是(3,); 一个二阶的张量[[1,2,3],[4,5,6]]的shape是(2,3 ...
分类:
其他好文 时间:
2019-03-07 15:44:03
阅读次数:
394
同为降维工具,二者的主要区别在于, 所在的包不同(也即机制和原理不同) from sklearn.decomposition import PCA from sklearn.manifold import TSNE 因为原理不同,导致,tsne 保留下的属性信息,更具代表性,也即最能体现样本间的差异 ...
分类:
其他好文 时间:
2019-03-03 18:54:10
阅读次数:
1001
首先让我们思考一个这样的题目;假如有一个数组 var arr = [1, [2, 3, [4]]] ,我们怎么能把arr变成[1, 2, 3, 4]呢?即让多维数组降维,转换为只有一层的数组;如果用过lodash的话,我们知道 flatten 和 flattenDeep 方法都可以实现. flatt ...
分类:
编程语言 时间:
2019-03-03 09:21:06
阅读次数:
201
scikit-learn提供了一系列转换库,他们可以清洗,降维,提取特征等。 在数据转换中有三个很重要的方法,fit,fit_transform,transform 1 2 3 初学时候好奇为何,训练样本用fit_transform,而测试样本用transform? 仔细阅读官方文档发现,fit方法 ...
分类:
其他好文 时间:
2019-02-20 15:54:55
阅读次数:
166
如今主流推荐系统的重点由三个部分组成:有关物品检索,物品排序以及用户特征提取。用户特征通过用户特点,用户的购书记录,用户搜索的关键字,用户的评分收藏行为等方法进行获取。可以使用聚类的方式对用户特征进行降维。在取得用户的兴趣以后,推荐系统应该按照特点找到和用户有关的物品。通常根据倒排索引技术完成有关物 ...
分类:
其他好文 时间:
2019-02-10 19:00:05
阅读次数:
212
1. 动机一:数据压缩 第二种类型的 无监督学习问题,称为 降维。有几个不同的的原因使你可能想要做降维。一是数据压缩,数据压缩不仅允许我们压缩数据,因而使用较少的计算机内存或磁盘空间,但它也让我们加快我们的学习算法。 但首先,让我们谈论 降维是什么。作为一种生动的例子,我们收集的数据集,有许多,许多 ...
分类:
其他好文 时间:
2019-02-09 22:41:01
阅读次数:
236
1. 实现跨通道的交互和信息整合 对于某个卷积层,无论输入图像有多少个通道,输出图像通道数总是等于卷积核数量! 对多通道图像做1x1卷积,其实就是将输入图像于每个通道乘以卷积系数后加在一起,即相当于把原图像中本来各个独立的通道“联通”在了一起。 2. 进行卷积核通道数的降维和升维 进行降维和升维引起 ...
分类:
其他好文 时间:
2019-02-04 15:23:09
阅读次数:
231
奇异值分解(SVD)及其应用 PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。奇异值分解是 ...
分类:
其他好文 时间:
2019-01-29 01:10:46
阅读次数:
162
降维-LDA线性判别分析 降维-LDA线性判别分析 降维-LDA线性判别分析 降维-LDA线性判别分析 【机器学习】LDA线性判别分析 1. LDA的基本思想 2. LDA求解方法 3. 将LDA推广到多分类 4. LDA算法流程 5. LDA和PCA对比 【附录1】瑞利商与广义瑞利商 线性判别分析 ...
分类:
其他好文 时间:
2019-01-28 23:48:53
阅读次数:
748
在主成分分析(PCA)原理总结中,我们对降维算法PCA做了总结。这里我们就对另外一种经典的降维方法线性判别分析(Linear Discriminant Analysis, 以下简称LDA)做一个总结。LDA在模式识别领域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用,因此我们有必要了 ...
分类:
其他好文 时间:
2019-01-27 14:40:27
阅读次数:
181