想把一些对象的距离关系显示在图上,对象特征是很多维的,而显示通常用二维平面或三维立体图。于是先用PCA将特征降成两维,然后两维分别作横轴和纵轴。这里PCA用的MATLAB降维工具箱drtoolbox,这样在平面上的一个关系就可以显示出来了。mappedX = compute_mapping(X, 'PCA', 1); 另外每个对象还有个相应的值,相当于还有一维信息想表示出来。除了用三维图,也可以...
分类:
其他好文 时间:
2014-07-26 15:07:10
阅读次数:
239
1,单值分解:线性代数的重要部分,已经被广泛用于模式识别中的降维和信息检索应用中。
2,独立成分分析
3,非负矩阵分解
4,非线性降维算法:① kernel PCA②基于图的方法(拉普拉斯算子,Local LinearEmbedding (LLE),Isometric Mapping (ISOMAP))
5,离散傅里叶变换
6,离散cos和sin变换
7,THEHADAMARD TRA...
分类:
其他好文 时间:
2014-07-22 14:31:58
阅读次数:
252
斯坦福ML公开课笔记15
我们在上一篇笔记中讲到了PCA(主成分分析)。PCA是一种直接的降维方法,通过求解特征值与特征向量,并选取特征值较大的一些特征向量来达到降维的效果。
本文继续PCA的话题,包括PCA的一个应用——LSI(Latent Semantic Indexing, 隐含语义索引)和PCA的一个实现——SVD(Singular Value Decomposition,奇异值分解),在SVD和LSI结束之后,关于PCA的内容就告一段落。视频的后半段开始讲无监督学习的一种——ICA(Indepen...
分类:
其他好文 时间:
2014-07-22 14:16:14
阅读次数:
314
1. PCAprincipal components analysis主要是通过对协方差矩阵Covariance matrix进行特征分解,以得出数据的主成分(即特征向量eigenvector)与它们的权值(即特征值eigenvalue)。PCA是最简单的以特征量分析多元统计分布的方法。其结果可以理...
分类:
其他好文 时间:
2014-07-19 18:05:19
阅读次数:
190
原文:http://blog.csdn.net/songzitea/article/details/18219237引言当面对的数据被抽象为一组向量,那么有必要研究一些向量的数学性质。而这些数学性质将成为PCA的理论基础。理论描述向量运算即:内积。首先,定义两个维数相同的向量的内积为:(a1,a2,...
分类:
其他好文 时间:
2014-07-18 14:05:16
阅读次数:
339
本篇主要介绍PCA(Principal Components Analysis, 主成分分析),也是一种降维方法,但是该方法比较直接,只需计算特征向量就可以进行降维了。本篇对应的视频是公开课的第14个视频,该视频的前半部分为因子分析模型的EM求解,已写入笔记13,本篇只是后半部分的笔记,所以内容较少。...
分类:
其他好文 时间:
2014-07-09 12:45:57
阅读次数:
196
相对与网上很多人分享的有关PCA的经历,我第一次接触PCA却不是从人脸表情识别开始的,但我所在的实验室方向之一是人脸的研究,最后也会回到这个方向上来吧。PCA(principal components analysis)是一种非常有用的统计技术,它已经应用于人脸识别和图像压缩领域中,并且是高维数据计...
分类:
其他好文 时间:
2014-07-07 21:46:40
阅读次数:
1324
人脸识别中矩阵的维数n>>样本个数m。计算矩阵A的主成分,根据PCA的原理,就是计算A的协方差矩阵A'A的特征值和特征向量,但是A'A有可能比较大,所以根据A'A的大小,可以计算AA'或者A'A的特征值,原矩阵和其转置矩阵的特征值是一样的,只是特征向量不一样。假如我们的数据按行存放,A是m*n的矩阵...
分类:
其他好文 时间:
2014-07-01 00:50:18
阅读次数:
506
博客安排1.PCA原理及其应用(两篇)2.线性规划问题3.正则化方法3.拉格朗日乘法算子4.SVM5.ICA原理6.聚类分析7.EM算法8.推荐系统9.SVD10.高斯分布
分类:
其他好文 时间:
2014-06-10 15:04:35
阅读次数:
270