L2范数 除了L1范数,还有一种更受宠幸的规则化范数是L2范数: ||W||2。它也不逊于L1范数,它有两个美称,在回归里面,有人把有它的回归叫“岭回归”(Ridge Regression),有人也叫它“权值衰减weight decay”。这用的很多吧,因为它的强大功效是改善机器学习里面一个非常.....
分类:
其他好文 时间:
2014-08-27 12:46:08
阅读次数:
377
知道某个算法,和运用一个算法是两码事儿。当你训练出数据后,发觉模型有太大误差,怎么办?1)获取更多的数据。也许有用吧。2)减少特征维度。你可以自己手动选择,也可以利用诸如PCA等数学方法。3)获取更多的特征。当然这个方法很耗时,而且不一定有用。4)添加多项式特征。你在抓救命稻草么?5)构建属于你自己...
分类:
其他好文 时间:
2014-08-26 21:05:46
阅读次数:
889
Mahout 是 Apache Software Foundation(ASF) 旗下的一个开源项目,提供一些可扩展的机器学习领域经典算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序。Apache Mahout项目已经发展到了它的第三个年头,目前已经有了三个公共发行版本。Mahout包含许多实现,包括聚类、分类、推荐过滤、频繁子项挖掘。此外,通过使用 Apache Hadoop 库,Mahout 可以有效地扩展到云中。
Mahout 的创始人 Grant Ingersoll 介绍了机器学习的基本概...
分类:
其他好文 时间:
2014-08-26 19:44:17
阅读次数:
357
在对数据进行拟合,学习模型的过程中,会出现以下情况:1)high variance, overfitting.过拟合2)high bias, underfiiting.欠拟合过拟合出现的原因1)太多的特征。2)过少的训练数据。如何解决?1)减少特征数2)模型选择算法(model selection ...
分类:
其他好文 时间:
2014-08-26 19:13:56
阅读次数:
310
outlook
temperature
humidity
windy
play
yes
no
yes
no
yes
no
yes
no
yes
no
sunny
2
3
hot
2
2
high
3
4
...
分类:
其他好文 时间:
2014-08-26 09:53:05
阅读次数:
200
信息熵很亮的是在你知道一个事件的结果后,平均会带给你多大的信息量,当事件的不确定性越大,那么要搞清它所需要的信息量也就越大,也就是信息熵越大,是无序性,不确定性的度量指标。
信息熵的计算:
-p[i]logp[i],底数为2
public static double calcEntropy(int p[]) {
double entropy = 0;
// 用来计算总的样本数量,p[...
分类:
其他好文 时间:
2014-08-25 15:01:05
阅读次数:
293
1.背景 最大似然估计是概率论中常常涉及到的一种统计方法。大体的思想是,在知道概率密度f的前提下,我们进行一次采样,就可以根据f来计算这个采样实现的可能性。当然最大似然可以有很多变化,这里实现一种简单的,实际项目需要的时候可以再更改。 博主是参照wiki来学习的,地址请点击我 这里实现的是特别简单的例子如下(摘自wiki的最大似然)离散分布,离散...
分类:
编程语言 时间:
2014-08-25 11:53:54
阅读次数:
1655
在网上找到一篇好文,直接粘贴过来,加上一些补充和自己的理解,算作此文。My education in the fundamentals of machine learning has mainly come from Andrew Ng’s excellent Coursera course on ...
分类:
其他好文 时间:
2014-08-24 23:41:03
阅读次数:
518
机器学习就是把无序的数据转换成有用的信息。
机器学习的主要任务就是分类,通过通过训练数据训练算法,最终可以将实际的数据分到合适的类别中
监督学习算法:预测目标变量的值
k-means算法,线性回归
朴素贝叶斯算法,局部加权线性回归
支持向量机,ridge回归
决策树,lasso最小回归系数估计
无监督学习算法:不需要预测目标变量的值
k-均值,最大期望算法
DBS...
分类:
其他好文 时间:
2014-08-22 14:28:59
阅读次数:
340