一、引言最近写了许多关于机器学习的学习笔记,里面经常涉及概率论的知识,这里对所有概率论知识做一个总结和复习,方便自己查阅,与广大博友共享,所谓磨刀不误砍柴工,希望博友们在这篇博文的帮助下,阅读机器学习的相关文献时能够更加得心应手!这里只对本人觉得经常用到的概率论知识点做一次小结,主要是基本概念,因为...
分类:
其他好文 时间:
2014-11-01 21:41:26
阅读次数:
190
去年在学习Stanford的ML课程的时候整理过一篇BP神经网络原理的解析,链接地址,不过没有对它的code实现作太多的解读,只是用MATLAB的工具箱做了实验。
Jeremy Lin
具体的原理性资料可以参考:
[1] BP神经网络解析 http://blog.csdn.net/linj_m/article/details/9897839
[2] Tom M.Mitchell 机器学习教...
分类:
其他好文 时间:
2014-11-01 19:17:29
阅读次数:
420
阅读导读:
1.mahout单机内存算法实现和分布式算法实现分别存在哪些问题?
2.算法评判标准有哪些?
3.什么会影响算法的评分?
1.
Mahout推荐算法介绍
Mahout推荐算法,从数据处理能力上,可以划分为2类:
单机内存算法实现
基于Hadoop的分步式算法实现
1).
单机内存算法实现
单机内存算法实现:就是在单机...
分类:
编程语言 时间:
2014-11-01 17:53:30
阅读次数:
397
一、引言 本材料参考Andrew Ng大神的机器学习课程http://cs229.stanford.edu 在上一篇有监督学习回归模型中,我们利用训练集直接对条件概率p(y|x;θ)建模,例如logistic回归就利用hθ(x) = g(θTx)对p(y|x;θ)建模(其中g(z)是sigmoi.....
分类:
其他好文 时间:
2014-11-01 17:46:57
阅读次数:
202
1.综述: 贝叶斯分类方法是统计学分类方法。它们可以预测类隶属关系的概率,如一个给定的元组属于一个特定类的概率。贝叶斯分类基于贝叶斯定理。分类算法的比较研究发现,一种称为朴素贝叶斯分类法的简单贝叶斯分类法可以与决策树和经过挑选的神经网络分类器相媲美。用于大型数据库,贝叶斯分类法也已表现出高准确率和....
分类:
其他好文 时间:
2014-11-01 16:02:39
阅读次数:
240
1.概述决策树归纳是从有类标号的训练元组中学习决策树。决策树是一种类似于流程图的树结构,其中,每个内部结点(非叶子结点)表示在一个属性上的测试,每个分支代表该测试的一个输出,而每个树叶结点存放一个类的类标号。树的最顶层结点是根结点。有些决策树只能产生二叉树,而有些决策树可能产生非二叉树。决策树以自顶...
分类:
其他好文 时间:
2014-11-01 13:21:53
阅读次数:
222
一、引言 本材料参考Andew Ng大神的机器学习课程http://cs229.stanford.edu,以及斯坦福无监督学习UFLDL tutorialhttp://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial 机器学习中的回归问题属于有监督.....
分类:
其他好文 时间:
2014-10-31 22:09:46
阅读次数:
221
机器学习算法 原理、实践与实战 —— 分类、标注与回归1. 分类问题分类问题是监督学习的一个核心问题。在监督学习中,当输出变量$Y$取有限个离散值时,预测问题便成为分类问题。监督学习从数据中学习一个分类决策函数或分类模型,称为分类器(classifier)。分类器对新的输入进行输出的预测,这个过程称...
分类:
其他好文 时间:
2014-10-31 13:36:09
阅读次数:
1179
机器学习算法 原理、实现与实战——模型评估与模型选择1. 训练误差与测试误差机器学习的目的是使学习到的模型不仅对已知数据而且对未知数据都能有很好的预测能力。假设学习到的模型是$Y = \hat{f}(X)$,训练误差是模型$Y = \hat{f}(X)$关于训练数据集的平均损失:$$R_{emp}(...
分类:
其他好文 时间:
2014-10-31 11:20:27
阅读次数:
311
机器学习算法原理、实现与实践——监督学习机器学习包括监督学习、非监督学习、半监督学习及强化学习,这里先讨论监督学习。 监督学习的任务是学习一个模型,使模型能够对任意给定的输入,对其相应的输出做出一个好的预测。1 基本概念1.1 输入空间、特征空间与输出空间输入与输出所有可能取值的集合分别称为输入空间...
分类:
其他好文 时间:
2014-10-31 09:57:32
阅读次数:
461