特征值分解如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:
这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。特征值分解是将一个矩阵分解成下面的形式:
其中Q是这个矩阵A的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。我这里引用了一些参考文献中的内容来说明一下。首先,要明确的是,一个矩阵其实就是...
分类:
其他好文 时间:
2016-04-26 20:41:54
阅读次数:
248
MF的效果 1)与P、Q的初始值有关系;取值的方式包括:a)正态分布b)随机取数c)随机取数/隐向量维数d)全赋值为0;不同的方式导致结果不同,如Yelp,phonix数据集下,c)的方式就会好些 2)与P、Q的维数有关;传统理解应该维数增加,效果也提升。但是不同数据集,效果却是不同的。如Yelp, ...
分类:
其他好文 时间:
2016-04-14 17:31:17
阅读次数:
299
推荐算法主要分为基于内容的算法和协同过滤. 协同过滤的两种基本方法是基于邻居的方法(基于内容/物品的协同过滤)和隐语义模型. 矩阵分解乃是实现隐语义模型的基石.
矩阵分解根据用户对物品的评分, 推断出用户和物品的隐语义向量, 然后根据用户和物品的隐语义向量来进行推荐.
推荐系统用到的数据可以有显式评分和隐式评分. 显式评分时用户对物品的打分, 显式评分矩阵通常非常稀疏. 隐式评分是指用...
分类:
其他好文 时间:
2016-04-09 07:03:40
阅读次数:
224
http://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html 一、奇异值与特征值基础知识: 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解
分类:
其他好文 时间:
2016-03-08 19:30:03
阅读次数:
281
Apr 08, 2014Categories intutorialtagged withMahouthadoop协同过滤Joe Jiang前言:之前配置Mahout时测试过一个简单的推荐例子,当时是在Eclipse上运行的,由于集成插件的缘故,所以一切进行的都比较顺利,唯一不足的是那是单机运行的,没...
分类:
其他好文 时间:
2016-01-08 22:12:44
阅读次数:
1141
NMF(非负矩阵分解),由于其分解出的矩阵是非负的,在一些实际问题中具有非常好的解释,因此用途很广。在此,我给大家介绍一下NMF在多声部音乐中的应用。要翻译的论文是利用NMF转录多声部音乐的开山之作,浅显易懂地介绍了如何利用NMF对钢琴曲进行乐谱翻译,值得一看。
摘要
在本文中我们提出一种新方法用来分析由固定谐波格式的音符构成的复调乐曲片段(例如钢琴音符)。由于音符结构固...
分类:
其他好文 时间:
2015-12-31 12:56:16
阅读次数:
297
【看了题解才会做这是一个典型的二维滑动窗口问题~二维滑动窗口问题的处理方法可以类比一维滑动窗口的处理方法首先将矩阵分解成B个列,对这B个列分别用单调队列维护一个长度为N的一维滑动窗口。记录colmax[i][j]为第j列第i行的元素(即第j个列的第i个元素)到第j列第i-N+1的元素(即第j个列的第...
分类:
其他好文 时间:
2015-12-30 21:47:51
阅读次数:
178
【机器学习】K-Means 聚类是特殊的矩阵分解问题。
本博客是该论文《k-Means Clustering Is Matrix Factorization》的阅读笔记。论文证明了传统的K-Means算法的目标函数可以被表达成数据矩阵与其低阶数据矩阵之间差异的Frobenius范数。简单地说,K-Means 聚类是特殊的矩阵分解问题。...
分类:
其他好文 时间:
2015-12-26 19:43:15
阅读次数:
367
Atam教授:核希尔伯特空间( 再生Hilbert空间),蒙塔卡罗方法,KNN,多维线性回归,PSF方法回归,特征之间的非线性关系,deep learning,香农信息熵,回归贝叶斯,稀疏字典构造Jayaram:模糊连通性原理,稀疏分解,非负矩阵分解,svd分解图分割,adaboost,自适应稀疏模...
分类:
其他好文 时间:
2015-12-07 16:00:02
阅读次数:
273