码迷,mamicode.com
首页 >  
搜索关键字:pca knn    ( 1752个结果
(数据挖掘-入门-3)基于用户的协同过滤之k近邻
主要内容:1、k近邻2、python实现1、什么是k近邻(KNN)在入门-1中,简单地实现了基于用户协同过滤的最近邻算法,所谓最近邻,就是找到距离最近或最相似的用户,将他的物品推荐出来。而这里,k近邻(K Nearest Neighbor)的意思就是,找出最近或最相似的k个用户,将他们的评分(相似度...
分类:其他好文   时间:2015-10-02 11:18:36    阅读次数:191
DLA降维简述
DLA起源之解 考虑一个样本集合X=[x1,x2...xN],每个样本属于C个类中的一个。我们可以使用类似于PCA,LDA的线性降维方法将x由m维降至d维(m>d)。但是线性降维方法存在一些问题,例如LDA中的求逆运算,经常可能因为矩阵的奇异性是降维结果恶化。而这里介绍的DLA方法可以避免这个问题。...
分类:其他好文   时间:2015-09-21 17:38:04    阅读次数:379
python问题:SyntaxError:Non-ASCII character '\xe5' in file kNN.py on line 2, but no encoding declared;
因为Python在默认状态下不支持源文件中的编码所致。解决方案有如下三种:一、在文件头部添加如下注释码:# coding= 例如,可添加# coding=utf-8二、在文件头部添加如下两行注释码:#!/usr/bin/python# -*- coding: -*- 例如,可添加# -*- cod....
分类:编程语言   时间:2015-09-19 17:58:59    阅读次数:149
流形学习笔记
维数约简特征选择,依据某一标准选择性质最突出的特征特征抽取,经已有特征的某种变换获取约简特征增加特征数:可以增加信息量,进而提高准确度增加训练分类器的难度,进而带来维数灾难。解决办法: 选取尽可能多的、可能有用的特征,然后根据需要进行特征约简。主成分分析(PCA)目的: 寻找能够表示采样数据的最.....
分类:其他好文   时间:2015-09-18 23:15:11    阅读次数:382
K近邻算法
1.1、什么是K近邻算法何谓K近邻算法,即K-Nearest Neighbor algorithm,简称KNN算法,单从名字来猜想,可以简单粗暴的认为是:K个最近的邻居,当K=1时,算法便成了最近邻算法,即寻找最近的那个邻居。为何要找邻居?打个比方来说,假设你来到一个陌生的村庄,现在你要找到与你有着...
分类:编程语言   时间:2015-09-17 06:28:45    阅读次数:277
K Nearest Neighbor 算法
K Nearest Neighbor算法又叫KNN算法,这个算法是机器学习里面一个比较经典的算法,总体来说KNN算法是相对比较容易理解的算法。其中的K表示最接近自己的K个数据样本。KNN算法和K-Means算法不同的是,K-Means算法用来聚类,用来判断哪些东西是一个比较相近的类型,而KNN算法是...
分类:编程语言   时间:2015-09-17 06:27:41    阅读次数:302
What is an intuitive explanation of the relation between PCA and SVD?
What is an intuitive explanation of the relation between PCA and SVD?36 FOLLOWERSLast asked:30 Sep, 2014QUESTION TOPICSSingular Value DecompositionPri...
分类:其他好文   时间:2015-09-14 20:50:38    阅读次数:416
学习日志---knn算法实现
KNN算法实现:提取文本:importnumpyasnp //提取文本 defloadDataSet(fileName): numFeat=len(open(fileName).readline().split(‘,‘)) dataMat=[];labelMat=[] fr=open(fileName) forlineinfr.readlines(): lineArr=[] line=line.strip() curline=line.split(‘,‘) foriinrange..
分类:编程语言   时间:2015-09-14 16:53:03    阅读次数:331
四大机器学习降维算法:PCA、LDA、LLE、Laplacian Eigenmaps
原文:http://dataunion.org/13451.html作者:xbinworld引言:机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据...
分类:编程语言   时间:2015-09-12 16:09:08    阅读次数:272
【特征匹配】BRIEF特征描述子原理及源码解析
传统的特征点描述子如SIFT,SURF描述子,每个特征点采用128维(SIFT)或者64维(SURF)向量去描述,每个维度上占用4字节,SIFT需要128×4=512字节内存,SURF则需要256字节。如果对于内存资源有限的情况下,这种描述子方法显然不适应。同时,在形成描述子的过程中,也比较耗时。后来有人提出采用PCA降维的方法,但没有解决计算描述子耗时的问题。    鉴于上述的缺点Michae...
分类:其他好文   时间:2015-09-10 11:11:32    阅读次数:266
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!