Python中字符串的常用方法 str_lst = [ ('元素替换',), ('字符串切片',), ('字符串分割',), ('字符串连接',), ('元素计数',), ('寻找元素',), ('判断字符串的开头与结尾',), ('字符串的大小写转换',), ('移除字符串首尾指定字符',), ( ...
分类:
编程语言 时间:
2018-11-15 19:43:40
阅读次数:
206
原文链接:https://riboseyim.github.io/2018/02/10/Machine Learning Algorithms/ 摘要 机器学习算法分类:监督学习、半监督学习、无监督学习、强化学习 基本的机器学习算法:线性回归、支持向量机(SVM)、最近邻居(KNN)、逻辑回归、决策 ...
分类:
编程语言 时间:
2018-11-15 12:02:21
阅读次数:
166
一、 k-近邻法 选择未知样本一定范围内确定个数的K个样本,该K个样本大多数属于某一类型,则未知样本判定为该类型。 粗暴性RNN实现: 适用情况: 1) 样本容量比较大,切各个分类数量差异不大; 2) 类域重叠交叉较多; 缺点: 1)需要存储全部的训练样本,耗内存 2) 计算量较大 3)样本数量少或 ...
分类:
其他好文 时间:
2018-11-12 20:54:48
阅读次数:
352
KNN:k近邻算法-在训练样本中找到与待测样本距离相近的N个样本,并用这N个样本中所属概率最大的类别作为待测样本的类别。 算法步骤: 1、对训练中的样本数据的不同属性进行归一化处理。 2、计算待测样本到训练样本集中的距离。(欧拉距离或曼哈顿距离); 3、找到N个距离最小的样本属于不同类别的概率。 4 ...
分类:
其他好文 时间:
2018-11-12 15:50:43
阅读次数:
112
PCA在做数据处理,一般会有一个数据预处理,其中一个目标就是将取数据特征向相关性。 为什么要去特征的相关性? 因为数据如果有相关性,在学习的时候是冗余的,徒增学习成本;所以对于数据处理(也称之为白化,英文有的时候称之为sphering),白化的目的:1.实现特征之间的相关性较低;2.所有的特征具有相... ...
分类:
其他好文 时间:
2018-11-11 23:40:16
阅读次数:
298
上图讲述的两组数据,可以看到左图的数据离散度比较大,相关性比较弱,右图数据的相关性比较强;我们在使用PCA的时候,就是要将相关性强的数据进行降维,以减少处理的数据量。 那么怎么描述数据的相关性呢?使用期望,协方差以及相关系数:下面分别是左图和右图的数字特征: 其实其关键性做得是R,R说明了点间的相关... ...
分类:
其他好文 时间:
2018-11-11 23:24:41
阅读次数:
206
一、jumpserver搭建过程 1、搭建需要有阿里的云yum仓库 wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-6.repo 2、解压跳板机源码包 将源码包拷贝到jumpserver服 ...
分类:
其他好文 时间:
2018-11-10 19:15:08
阅读次数:
213
引文:http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html ...
分类:
编程语言 时间:
2018-11-07 15:27:32
阅读次数:
162
奇异值分解 作为PCA的经典应用之一,是在文本分类中,这样的方法有一个专有的名字,叫潜在语义索引(LSI , laten semantic indexing )。这部分需要注意的是,在文本分类中,不需要先进行归一化处理(PCA 要求归一化处理),因为这里考虑了词语出现的次数。鉴于课件空缺,这里从网上 ...
分类:
其他好文 时间:
2018-11-04 19:36:08
阅读次数:
229