码迷,mamicode.com
首页 >  
搜索关键字:协方差 相关系数    ( 506个结果
欧几里德距离和皮尔逊相关系数计算方法
欧几里德距离是推荐算法中比较简单的一种,他计算两个用户之间的相似程度其计算方法为,以豆瓣电影为例假设用户A对电影 f1.。。。fn的评价分数分别为 r1.。。。rn用户B对电影 f1.。。。fn的评价分数分别为s1.。。。。sn暂且假设A和B都对这些电影评价过那么用户A和B的欧几里德距离计算方法为先...
分类:其他好文   时间:2014-08-27 12:26:07    阅读次数:213
【推荐系统】协同过滤--高度稀疏数据下的数据清理(皮尔逊相关系数)
向量之间的相似度 度量向量之间的相似度方法很多了,你可以用距离(各种距离)的倒数,向量夹角,Pearson相关系数等。 皮尔森相关系数计算公式如下: 分子是协方差,分子是两个变量标准差的乘积。显然要求X和Y的标准差都不能为0。 因为,所以皮尔森相关系数计算公式还可以写成: 当两个变量的线性关系增强时,相关系数趋于1或-1。 用户评分预测 ...
分类:其他好文   时间:2014-08-21 19:28:24    阅读次数:796
卡尔曼滤波模型及其Matlab实现
卡尔曼滤波建立在隐马尔科夫模型上,是一种递归估计。也就是说,只需要知道上一个状态的估计值,以及当前状态的观测值,就能计算当前状态的最优估计值。 而不需要更早的历史信息。   卡尔曼滤波器的2个状态 1.最优估计 2.误差协方差矩阵 这两个变量迭代计算,初始值多少,其实没有影响。反正最后都能收敛到最优估计。   预测过程 F是状态转移矩阵,B是控制矩阵(也可以不需要)。Q是过程噪声...
分类:其他好文   时间:2014-08-20 18:02:32    阅读次数:392
主成分分析与白化预处理
上一节介绍了主成分分析应用于2维数据。现在使用高维的图像数据来试试效果。 原始图像如图1所示。 图1 每个图片都是12*12的小patch,原始数据是一个144*10000的矩阵x。 在使用了PCA旋转之后,可以检查一下此时的协方差矩阵是否已经成功变成对角阵了,如图2所示。 avg=mean(x,1); x=x-repmat(avg,size(x,1),1); xRot = ze...
分类:其他好文   时间:2014-08-11 21:28:52    阅读次数:429
皮尔逊相关系数的java实现
相关系数的值介于–1与+1之间,即–1≤r≤+1。其性质如下:当r>0时,表示两变量正相关,r rating_map = new HashMap(); /** * @param args */ public static void main(String[] args) { Simil...
分类:编程语言   时间:2014-08-06 18:55:31    阅读次数:285
mahout推荐9-进行推荐
基于用户的推荐和基于物品的推荐两种算法,均依赖于两个事物(用户或物品)之间的相似性度量(等同性定义),相似性度量的方法:PearsonCorrealation皮尔逊相关系数,对数似然值Loglikelihood,斯皮尔曼相关系数SpearmanCorrelation,谷本系数TanimotoCoef...
分类:其他好文   时间:2014-08-04 14:15:27    阅读次数:217
ZCA白化变换推导——Learning Multiple Layers of Features from Tiny Images
参考文献:Learning Multiple Layers of Features from Tiny Images:附录 设数据集 X 的维数为 d×n ,且已经中心化 则协方差矩阵为 1/(n-1)*X*X' 我们想让这n个d维向量中任意两维都不相关,则假定去相关矩阵为W Y = W*X 为了使W达到去相关的目的,Y*Y‘必须是对角阵,可以进一步约束Y满足 Y * Y’ = (n...
分类:其他好文   时间:2014-08-04 11:06:27    阅读次数:403
机器学习问题方法总结
机器学习问题方法总结大类名称关键词有监督分类决策树信息增益分类回归树Gini指数,Χ2统计量,剪枝朴素贝叶斯非参数估计,贝叶斯估计线性判别分析Fishre判别,特征向量求解K最邻近相似度度量:欧氏距离、街区距离、编辑距离、向量夹角、Pearson相关系数逻辑斯谛回归(二值分类)参数估计(极大似然估计...
分类:其他好文   时间:2014-08-03 23:05:56    阅读次数:416
数据挖掘算法学习(四)PCA算法
算法简介 主成分分析(PrincipalComponentAnalysis,简称PCA)是一种常用的基于变量协方差矩阵对信息进行处理、压缩和抽提的有效方法。主要用于对特征进行降维。 算法假设 数据的概率分布满足高斯分布或是指数型的概率分布。方差高的向量视为主元。...
分类:其他好文   时间:2014-07-29 14:32:48    阅读次数:196
ML | PCA
what's xxxPCAprincipal components analysis is for dimensionality reduction.主要是通过对协方差矩阵Covariance matrix进行特征分解,以得出数据的主成分(即特征向量eigenvector)与它们的权值(即特征值ei...
分类:其他好文   时间:2014-07-19 23:23:11    阅读次数:241
506条   上一页 1 ... 47 48 49 50 51 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!