PCA和LDA都是降维算法,他们的主要区别是: PCA为无监督方法,主要是主成分分析方法,Principal Component Analysis, 简称PCA。 PCA可以降到任意维度。 LDA是有监督方法,主要是线性判别分析法,Linear Discriminant Analysis ,简称LD ...
分类:
其他好文 时间:
2019-01-13 02:01:09
阅读次数:
163
一个非常常见的问题就是遇到的数据是多维度数据,维度过高会导致模型极度的复杂,折衷的法案就是降维,然后再Q聚类、分类、回归。降维强调在不损失准确性的前提下来降低维度(选出最优特征) PCA是最常见降维算法,它寻找线性不相关的特征子集(主要因子),另外还有LDA(Linear Discriminant ...
分类:
其他好文 时间:
2018-10-19 16:07:30
阅读次数:
296
线性判别分析算法。 逻辑回归是一种分类算法,传统上仅限于两类分类问题。 如果有两个以上的类,那么线性判别分析算法是首选的线性分类技术。LDA的表示非常直接。它包括数据的统计属性,为每个类计算。对于单个输入变量,这包括: 每个类的平均值。 在所有类中计算的方差。 通过计算每个类的差别值并对具有最大值的 ...
分类:
其他好文 时间:
2018-05-11 14:41:44
阅读次数:
148
Josephina is a clever girl and addicted to Machine Learning recently. She pays much attention to a method called Linear Discriminant Analysis, which h ...
分类:
其他好文 时间:
2018-03-06 14:41:06
阅读次数:
199
之前我们分析Logistic Regression,通过求p(y|x)来判定数据属于哪一个输出分类,这种直接判定的方法称为Discriminative Learning Algorithms,但还有另一种思路去接此问题,称为Generative Learning Algorithms,其中包括本文要 ...
分类:
其他好文 时间:
2018-02-08 00:19:52
阅读次数:
814
最近大四还有个必修:课程设计。选到的题目是 'Fisher辨别分析用于人脸数据维数约简的实现'。 然后在Scikit learn中找到了相关的python库: Dimensionality reduction using Linear Discriminant Analysis /********* ...
分类:
其他好文 时间:
2017-12-29 16:54:12
阅读次数:
212
Linear Discriminant Analysis(LDA线性判别分析) 用途:数据预处理中的降维,分类任务 目标:LDA关心的是能够最大化类间区分度的坐标轴成分,将特征空间(数据集中的多维样本)投影到一个维度更小的k维子空间中,同时保持区分类别的信息。 原理:投影到维度更低的空间中,使得投影 ...
分类:
其他好文 时间:
2017-11-08 15:56:09
阅读次数:
232
第四部分: 1.生成学习法 generate learning algorithm 2.高斯判别分析 Gaussian Discriminant Analysis 3.朴素贝叶斯 Navie Bayes 4.拉普拉斯平滑 Navie Bayes 生成学习法: ...
分类:
其他好文 时间:
2017-11-01 14:59:24
阅读次数:
154
判别分析(discriminant analysis)是一种分类技术。它通过一个已知类别的“训练样本”来建立判别准则,并通过预测变量来为未知类别的数据进行分类。判别分析的方法大体上有三类,即Fisher判别、Bayes判别和距离判别。 Fisher判别思想是投影降维,使多维问题简化为一维问题来处理。 ...
分类:
编程语言 时间:
2017-10-28 11:13:35
阅读次数:
206
之前我们讨论的PCA、ICA也好,对样本数据来言,可以是没有类别标签y的。回想我们做回归时,如果特征太多,那么会产生不相关特征引入、过度拟合等问题。我们可以使用PCA来降维,但PCA没有将类别标签考虑进去,属于无监督的。 比如回到上次提出的文档中含有“learn”和“study”的问题,使用PCA后 ...
分类:
其他好文 时间:
2017-10-11 15:24:16
阅读次数:
133