码迷,mamicode.com
首页 > 其他好文 > 详细

白面机器学习-降维

时间:2020-07-30 22:04:18      阅读:75      评论:0      收藏:0      [点我收藏+]

标签:表示   最大   处理   code   数据   特征   信号   效果   标签   

1、常见的降维的方法有:主成分分析,线性判别分析,等距映射,局部线性插入,拉不拉斯特征映射,局部保留投影。

一、PCA:

2、:主成分分析法,最经典的降维的方法,是一种线性,非监督,全局的降维方法。

最大方差理论:

3、PCA旨在找到数据中的主成分,用这些主成分表征原始数据,达到降维的目的。信号具有较大的方差,噪声具有较小的方差,信噪比越大意味着数据的质量越好,信噪比越小图像质量越差,PCA的目标为最大化投影方差。

PCA的求解的方法:

(1)、对样本进行中心化处理

(2)、求样本的协方差矩阵

(3)、对协方差矩阵进行特征值分解,将特征值从大到小排列

(4)、取特征值前d大对应的特征向量,w1,w2....wd,通过以下映射将n维样本映射到d维。

技术图片

 

 最小平方误差理论:

技术图片

技术图片

 

 一、线性判别分析:(LDA)(有监督的降维方法)

针对的是有标签的数据,使用此不会损失类别信息。(最大化类间距离,最小化类内距离)

无监督的任务选用PCA,有监督的任务采用LDA。(PCA假设方差越大,信息量越大,用主成分来表示原始数据可以去除冗余的维度,达到降维的效果,然而LDA选择的是投影后类内方差最小,类间方差最大的方向)

白面机器学习-降维

标签:表示   最大   处理   code   数据   特征   信号   效果   标签   

原文地址:https://www.cnblogs.com/lyp1010/p/13406155.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!