PCA最大化单个维度的区分性,减少维度之间的影响。区分性度量:方差维度之间影响:协方差因此用矩阵表示之后就是协方差矩阵的特征值和特征向量。1.构造矩阵。2.求出矩阵的协方差矩阵。3.求出协方差矩阵的特征值和特征向量,即在这些方向上不变。4.选出其中的几个方向能够比较完整表示所有的向量。5.计算在新坐标轴上的坐标ref:http://www.cnblogs.com/CBDoctor/archive/...
分类:
其他好文 时间:
2016-05-13 02:36:08
阅读次数:
141
二、操作基础 %%取余 %/%整数除法 (1)eigen(...)求解方阵的特征值和特征向量 (2)solve(D,A)求解DX=A (3)data<-list(...)取里面的对象data[["列名称"]];data[[下标]];data$列名称 (4)unlist(列表对象)把列表对象转化为向量 ...
分类:
编程语言 时间:
2016-05-10 22:00:01
阅读次数:
433
感知机(Perceptron)是二分类问题的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1和-1二值。 感知机于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型。感知机于1957年由Rosenblatt提出,是神经网络和支持向量机的基础。 在这里,不用《统计学习方 ...
分类:
其他好文 时间:
2016-05-08 16:51:49
阅读次数:
785
一、 K邻近算法思想:存在一个样本数据集合,称为训练样本集,并且每个数据都存在标签,即我们知道样本集中每一数据(这里的数据是一组数据,可以是n维向量)与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征(向量的每个元素)与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似的的 ...
分类:
编程语言 时间:
2016-05-02 19:47:28
阅读次数:
322
特征值分解如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:
这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。特征值分解是将一个矩阵分解成下面的形式:
其中Q是这个矩阵A的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。我这里引用了一些参考文献中的内容来说明一下。首先,要明确的是,一个矩阵其实就是...
分类:
其他好文 时间:
2016-04-29 18:24:09
阅读次数:
123
特征值分解如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:
这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。特征值分解是将一个矩阵分解成下面的形式:
其中Q是这个矩阵A的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。我这里引用了一些参考文献中的内容来说明一下。首先,要明确的是,一个矩阵其实就是...
分类:
其他好文 时间:
2016-04-26 20:41:54
阅读次数:
248
2 Learning to Answer Yes/No 2.1 Perceptron Hypothesis Set 根据信用卡问题引入PLA算法。 有以下特征: 抽象一下,成为特征向量x,根据x和权重的w的内积相对于阈值的大小决定输出标签的正负(正则赋予信用卡,负不赋予信用卡): 具体而言,感知机( ...
分类:
其他好文 时间:
2016-04-17 22:04:08
阅读次数:
168
来自OpenCV2.3.1 sample/c/mushroom.cpp 1.首先读入agaricus-lepiota.data的训练样本。 样本中第一项是e或p代表有毒或无毒的标志位;其他是特征,可以把每个样本看做一个特征向量; cvSeqPush( seq, el_ptr );读入序列seq中,每 ...
分类:
其他好文 时间:
2016-04-17 20:39:51
阅读次数:
258
决策树是一种常用的监督学习方法,它根据输入的训练集各样本的特征向量和标签从上到下建立一棵树,每个非叶结点是一个特征,每个叶结点是一个标签,结点之间的边是特征的一个取值。决策的过程就像程序流经层层嵌套的if-else语句,最后进到一个不再细分的块(叶结点)里,从而预测出样本的归类。 决策树的优点是简单 ...
分类:
其他好文 时间:
2016-04-11 10:11:15
阅读次数:
103
给定一组有限维向量空间V的基{e1, e2, ... en},一个线性变换T: V->V'的关于这组基的“矩阵分量”[T(i,j)],定义为: T ej = sigma(i = 1 to n, T(i,j) ei) = T(1,j) e1 + T(2,j) e2 + ... T(n,j) en也就是 ...
分类:
其他好文 时间:
2016-04-09 23:35:18
阅读次数:
195