版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解...
分类:
其他好文 时间:
2016-01-03 19:32:54
阅读次数:
194
潜在语义分析通过矢量语义空间来分析文档和词的关系。基本假设:如果两个词多次出现在同个文档中,则两个词在语义上具有相似性。LSA使用大量文本构成矩阵,每行表示一个词,一列表示一个文档,矩阵元素可以是词频或TF-IDF,然后使奇异值分解SVD进行矩阵降维,得到原矩阵的近似,此时两个词的相似性可通过其向量...
分类:
其他好文 时间:
2015-11-12 13:31:10
阅读次数:
415
学习SVD奇异值分解的网上资料汇总:1、关于svd的一篇概念文,这篇文章也是后续几篇文章的鼻祖~http://www.ams.org/samplings/feature-column/fcarc-svd2、关于SVD物理意义分析比较透彻的文章http://www.cnblogs.com/LeftNo...
分类:
其他好文 时间:
2015-10-09 10:30:46
阅读次数:
174
1.概述 我们先从实数域R开始说起,再延伸到复数域C上去,先列出一个表格,把实数域以及复数域中常见的矩阵及其性质概括如下:表1 常见矩阵及其性质 我们知道实对称矩阵正交相似于对角阵,从而将一个方阵对角化,那么一个的矩阵能否对角化为对角阵呢,答案是肯定的,这也是奇异值分解(singular val.....
分类:
其他好文 时间:
2015-09-25 21:48:20
阅读次数:
302
上一篇总结了潜在语义分析(Latent Semantic Analysis, LSA),LSA主要使用了线性代数中奇异值分解的方法,但是并没有严格的概率推导,由于文本文档的维度往往很高,如果在主题聚类中单纯的使用奇异值分解计算复杂度会很高,使用概率推导可以使用一些优化迭代算法来求解。Thomas H...
分类:
其他好文 时间:
2015-09-17 09:54:46
阅读次数:
300
矩阵分解之奇异值分解引言首先说矩阵,矩阵是一个难理解的数学描述,不管是在本科阶段的线性代数课上还是在研究生阶段的矩阵分析课上,都没有使我对矩阵产生什么好感,虽然考试也能过关,基本知识也能理解,但就是不知道有卵用。直到接触了机器学习相关算法论述时,发现好多的机器学习算法最终的描述都是通过矩阵分析相关知识推导而来,才知道了矩阵分析是非常有用的,但是到现在为止,还是没有什么好感。然后为什么要讲到奇异值分解...
分类:
其他好文 时间:
2015-09-15 11:10:54
阅读次数:
276
版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解...
分类:
其他好文 时间:
2015-08-17 11:42:50
阅读次数:
183
稀疏矩阵处理方法:(1) 数据平滑技术,如设定缺省值,将为评分项设为平均分或众数,回归填补法,随机填补法;聚类平滑技术,将未评分项使用聚类中心的数据经行填充。(2) 降维技术,主成分分析( PCA)和奇异值分解(SVD)(3)对已有相似度计算模型进行局部加权处理。如基于时间的加权,基于共现次数的线性...
分类:
其他好文 时间:
2015-08-16 19:33:54
阅读次数:
195
最近在研究推荐算法方面的知识,对SVD似懂非懂,在ChinaUnix论坛上发现一个很好的解释SVD的例子,所以赶紧贴了出来,和大家分享:http://blog.chinaunix.net/uid-20761674-id-4040274.html原文:We recommend a singular v...
分类:
其他好文 时间:
2015-08-16 19:33:37
阅读次数:
197
svd我认识我机器学习里面最扯淡的玩意了。尼玛。老实说,好多机器学习的书老是在扯svd有多高端,然后看了netflix电影推荐大赛,哇塞,冠军队就是用svd+做的。然后狠狠的下载了所有他们的论文,硬是没看明白。后来居然对svd有恐惧感。感觉这个玩意好高端似的。你看他啊,它能提高预测精度,它好...
分类:
其他好文 时间:
2015-08-05 23:58:46
阅读次数:
2418