一、奇异值与特征值基础知识: 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。先谈谈特征值分解吧: 1)特征值: 如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式: ...
分类:
其他好文 时间:
2018-10-05 21:31:35
阅读次数:
176
本文解决一个图像处理的具体问题“利用PCA求出了特征向量之后,如何求解该直线与轮廓的交点”
基本思路为:
1、首先要界定范围。对于交点来说,肯定是在这个轮廓的“最小外接矩形”中的,所以先求出外接矩形作为限定;
2、向量只是一个方向,要将其变成一条直线(如果在“最小外接矩形”中就是线段),推荐使用... ...
分类:
其他好文 时间:
2018-10-05 20:24:14
阅读次数:
267
下文会出现以下知识点:神经网络的计算流程。 TensorFlow游乐场: 网址:http://playground.tensorflow.org。 神经网络简介: 在机器学习中,所有描述一个实体的数字的组合就是一个实体的特征向量。 目前主流的神经网络都是分层的结构,第一层是输入层,代表每一个特征的取 ...
分类:
其他好文 时间:
2018-09-22 19:45:08
阅读次数:
179
PCA主成分分析算法,是一种线性降维,将高维坐标系映射到低维坐标系中。 如何选择低维坐标系呢? 通过协方差矩阵的特征值和特征向量,特征向量代表坐标系,特征值代表映射到新坐标的长度。 算法步骤: 输入:样本集D={x1,x2,...,xm}; 低维空间维数k 第一步:将样本集中心化。每一列的特征值减去 ...
分类:
编程语言 时间:
2018-09-21 18:27:36
阅读次数:
224
一:神经网络 技术起源于上世纪五、六十年代,当时叫感知机(perceptron),包含有输入层、输出层和一个隐藏层。输入的特征向量通过隐藏层变换到达输出层,由输出层得到分类结果。但早期的单层感知机存在一个严重的问题——它对稍微复杂一些的函数都无能为力(如异或操作)。直到上世纪八十年代才被Hition ...
分类:
其他好文 时间:
2018-09-15 16:39:45
阅读次数:
184
特征向量 机器学习方法 距离度量 2.曼哈顿距离:在曼哈顿街区要从一个十字路口开车到另一个十字路口,驾驶距离显然不是两点间的直线距离。这个实际驾驶距离就是“曼哈顿距离”,也称为“城市街区距离”。 3.切比雪夫距离:国际象棋中,国王可以直行、横行、斜行,所以国王走一步可以移动到相邻8个方格中的任意一个 ...
分类:
其他好文 时间:
2018-09-12 11:10:05
阅读次数:
418
" 10035. 「一本通 2.1 练习 1」Power Strings" 【题目描述】 给定若干个长度 $\le 10^6$?? 的字符串,询问每个字符串最多是由多少个相同的子字符串重复连接而成的。如: 则最多有 333 个 连接而成。 【算法】 1、kmp第一步求出字符串的特征向量。若 (n是字 ...
分类:
其他好文 时间:
2018-09-08 16:50:19
阅读次数:
600
[toc] 最小语音识别模型 输入 音频特征向量,共计26维的mfcc特征向量 为了使神经网络能够统一格式,将[batch_size, time_step, 26]中的time_step定为一个较大的值,如果实际时长不足,采用补零的方法补齐 输出 输出为一个[batch_size, words_le ...
分类:
其他好文 时间:
2018-08-24 00:28:43
阅读次数:
971
特征选择(Feature Selection)指的是在特征向量中选择出那些“优秀”的特征,组成新的、更“精简”的特征向量的过程。它在 高维数据分析中十分常用,可以剔除掉“冗余”和“无关”的特征,提升学习器的性能。特征选择方法和分类方法一样,也主要分为有监督(Supervised)和无监督(Unsup ...
分类:
其他好文 时间:
2018-08-17 12:49:55
阅读次数:
319
词袋法: 统计文本中出现的各个单词出现的数量,使用单词出现的数量作为文本的特征向量,使用单词作为特征, 但是单词一般情况比较多,所以考虑使用自定义词典作为特征,然后对自定义词典中的单词出现的数量进行统计即可.(频数) 哑编码: 将有限个类别的特征属性转换为数值型的特征向量,也就是用向量的形式来表示特 ...
分类:
其他好文 时间:
2018-08-16 13:51:54
阅读次数:
135