发信人: zibuyu (得之我幸), 信区: NLP标 题: 机器学习推荐论文和书籍发信站:
水木社区 (Thu Oct 30 21:00:39 2008),
站内我们组内某小神童师弟通读论文,拟了一个机器学习的推荐论文和书籍列表。经授权发布在这儿,希望对大家有用。:)==============...
分类:
其他好文 时间:
2014-06-29 14:52:27
阅读次数:
293
英文原文:4 Self-Study Machine Learning Projects
学习机器学习有很多方法,大多数人选择从理论开始。
如果你是个程序员,那么你已经掌握了把问题拆分成相应组成部分及设计小项目原型的能力,这些能力能帮助你学习新的技术、类库和方法。这些对任何一个职业程序员来说都是重要的能力,现在它们也能用在初学机器学习上。
要想有效地学习机器学习你必须学习相关理论,...
分类:
其他好文 时间:
2014-06-05 11:44:35
阅读次数:
208
神经网络常用于机器学习中的分类,常用的分类算法有:朴素贝叶斯,遗传算法,神经网络,支持向量机等。
在互联网发达的今天,有很多东西需要进行分类,在分类之前,我们常常是有一些数据,找出这些数据符合什么样的
模型,然后根据这些已有数据来预测将来,神经网络就是用来进行这种数据建模的。
神经网络一般情况是有个输入,有个输出,在输入层和输出层之间通常还有若干个隐含层。实际上,在1989年...
分类:
其他好文 时间:
2014-06-05 02:40:25
阅读次数:
261
(转载请注明出处:http://blog.csdn.net/buptgshengod)1.背景
接着上一节说,没看到请先看一下上一节关于数据集的划分数据集划分。如今我们得到了每一个特征值得信息熵增益,我们依照信息熵增益的从大到校的顺序,安排排列为二叉树的节点。数据集和二叉树的图见下。(二叉树的图是....
分类:
编程语言 时间:
2014-06-03 07:23:48
阅读次数:
325
1.矩阵分解假设一个矩阵Data是m行n列,SVD(奇异值分解)将Data分解为U,E,VT
三个矩阵:Datam*n=Um*kEk*kVTk*nE是一个对角矩阵,对角元素为奇异值,对应Data的奇异值,即Data*DataT特征值的平方2.选取特征下面确定选取哪几维特征实现降维,去除噪声和冗余信息...
分类:
其他好文 时间:
2014-05-31 18:45:57
阅读次数:
327
Active LearningTwo Faces of Active Learning,
Dasgupta, 2011Active Learning Literature Survey, Settles, 2010ApplicationsA
Survey of Emerging Approaches...
分类:
其他好文 时间:
2014-05-31 07:37:19
阅读次数:
277
Harvard机器学习资料(video)http://cm.dce.harvard.edu/2011/02/23101/publicationListing.shtml1.
ml-class.org级别相当于S校的CS229A,注重Application,适合大二的学生学习,产生兴趣。但这个理论性差...
分类:
其他好文 时间:
2014-05-31 01:48:54
阅读次数:
366
参考:《机器学习实战》 优点:计算复杂度不高,
输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特 征数据。 缺点:可能会产生过度匹配问题。 适用数据类型:数值型和标称型。
创建分支的伪代码(createBranch): 图1 1、信息...
分类:
其他好文 时间:
2014-05-29 16:59:42
阅读次数:
401
K-means是一种聚类算法,其要求用户设定聚类个数k作为输入参数,因此,在运行此算法前,需要估计需要的簇的个数。
假设有n个点,需要聚到k个簇中。K-means算法首先从包含k个中心点的初始集合开始,即随机初始化簇的中心。随后,算法进行多次迭代处理并调整中心位置,知道达到最大迭代次数或中性收敛于固定点。
k-means聚类实例。选择三个随机点用作聚类中心(左上),map阶段(右上)将...
分类:
其他好文 时间:
2014-05-25 21:11:25
阅读次数:
275
一、PCA:PCA是一种用来对图像特征降维的方法,PCA通过将多个变量通过线性变换以选出较少的重要变量。它往往可以有效地从过于“丰富”的数据信息中获取最重要的元素和结构,去除数据的噪音和冗余,将原来复杂的数据降维,揭示隐藏在复杂数据背后的简单结构。近年来,PCA方法被广泛地运用于计算机领域,如数据降...
分类:
其他好文 时间:
2014-05-25 20:43:34
阅读次数:
288