L2范数 除了L1范数,还有一种更受宠幸的规则化范数是L2范数: ||W||2。它也不逊于L1范数,它有两个美称,在回归里面,有人把有它的回归叫“岭回归”(Ridge Regression),有人也叫它“权值衰减weight decay”。这用的很多吧,因为它的强大功效是改善机器学习里面一个非常.....
分类:
其他好文 时间:
2014-08-27 12:46:08
阅读次数:
377
一、LDA的基本思想线性判别式分析(LinearDiscriminantAnalysis,LDA),也叫做Fisher线性判别(FisherLinearDiscriminant,FLD),是模式识别的经典算法,它是在1996年由Belhumeur引入模式识别和人工智能领域的。线性鉴别分析的基本思想是...
分类:
其他好文 时间:
2014-08-27 01:34:47
阅读次数:
469
人工智能的道路我们还有很长的路要走,我们期待一场未来与机器人的真正博弈,而这种博弈的结果是:人与机器的和谐共存,生活的更加便捷。从我们感受到的智能来举例,如果你的手机是iphone,那你一定不会对siri陌生,这个人机交互的神器,可以帮助我们读短信、介绍餐厅、询问天气、语音设置闹钟。当然,这都不.....
分类:
其他好文 时间:
2014-08-26 22:52:36
阅读次数:
290
综上,信息体里的信息有时可以解析,有时不需要解析,人之所以不解析,这是一个问题。另外,有人问你&¥K的时候,你一定要回复“89Uk¥”。不可以因为心情不好不回复,因为在刚才的假设环境里,只有听觉。回复了就代表着这个东西是智能的。所以,人脑智能的建立与感知无关,感知确实如同计算机的IO设备,对信息体的处理是引擎核心。...
分类:
其他好文 时间:
2014-08-26 21:34:16
阅读次数:
206
知道某个算法,和运用一个算法是两码事儿。当你训练出数据后,发觉模型有太大误差,怎么办?1)获取更多的数据。也许有用吧。2)减少特征维度。你可以自己手动选择,也可以利用诸如PCA等数学方法。3)获取更多的特征。当然这个方法很耗时,而且不一定有用。4)添加多项式特征。你在抓救命稻草么?5)构建属于你自己...
分类:
其他好文 时间:
2014-08-26 21:05:46
阅读次数:
889
Mahout 是 Apache Software Foundation(ASF) 旗下的一个开源项目,提供一些可扩展的机器学习领域经典算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序。Apache Mahout项目已经发展到了它的第三个年头,目前已经有了三个公共发行版本。Mahout包含许多实现,包括聚类、分类、推荐过滤、频繁子项挖掘。此外,通过使用 Apache Hadoop 库,Mahout 可以有效地扩展到云中。
Mahout 的创始人 Grant Ingersoll 介绍了机器学习的基本概...
分类:
其他好文 时间:
2014-08-26 19:44:17
阅读次数:
357
在对数据进行拟合,学习模型的过程中,会出现以下情况:1)high variance, overfitting.过拟合2)high bias, underfiiting.欠拟合过拟合出现的原因1)太多的特征。2)过少的训练数据。如何解决?1)减少特征数2)模型选择算法(model selection ...
分类:
其他好文 时间:
2014-08-26 19:13:56
阅读次数:
310
outlook
temperature
humidity
windy
play
yes
no
yes
no
yes
no
yes
no
yes
no
sunny
2
3
hot
2
2
high
3
4
...
分类:
其他好文 时间:
2014-08-26 09:53:05
阅读次数:
200
信息熵很亮的是在你知道一个事件的结果后,平均会带给你多大的信息量,当事件的不确定性越大,那么要搞清它所需要的信息量也就越大,也就是信息熵越大,是无序性,不确定性的度量指标。
信息熵的计算:
-p[i]logp[i],底数为2
public static double calcEntropy(int p[]) {
double entropy = 0;
// 用来计算总的样本数量,p[...
分类:
其他好文 时间:
2014-08-25 15:01:05
阅读次数:
293