码迷,mamicode.com
首页 >  
搜索关键字:人工智能 机器学习 资源分享    ( 12648个结果
回归算法
回归算法简介、最小二乘法简介、算法实现。...
分类:其他好文   时间:2014-08-27 16:35:08    阅读次数:212
稀疏编码学习笔记(二)L2范数
L2范数 除了L1范数,还有一种更受宠幸的规则化范数是L2范数: ||W||2。它也不逊于L1范数,它有两个美称,在回归里面,有人把有它的回归叫“岭回归”(Ridge Regression),有人也叫它“权值衰减weight decay”。这用的很多吧,因为它的强大功效是改善机器学习里面一个非常.....
分类:其他好文   时间:2014-08-27 12:46:08    阅读次数:377
线性判别分析(Linear Discriminant Analysis,LDA)
一、LDA的基本思想线性判别式分析(LinearDiscriminantAnalysis,LDA),也叫做Fisher线性判别(FisherLinearDiscriminant,FLD),是模式识别的经典算法,它是在1996年由Belhumeur引入模式识别和人工智能领域的。线性鉴别分析的基本思想是...
分类:其他好文   时间:2014-08-27 01:34:47    阅读次数:469
口语翻译——AI过程的必经之路
人工智能的道路我们还有很长的路要走,我们期待一场未来与机器人的真正博弈,而这种博弈的结果是:人与机器的和谐共存,生活的更加便捷。从我们感受到的智能来举例,如果你的手机是iphone,那你一定不会对siri陌生,这个人机交互的神器,可以帮助我们读短信、介绍餐厅、询问天气、语音设置闹钟。当然,这都不.....
分类:其他好文   时间:2014-08-26 22:52:36    阅读次数:290
类人脑引擎(7)-瞎子世界的逻辑
综上,信息体里的信息有时可以解析,有时不需要解析,人之所以不解析,这是一个问题。另外,有人问你&¥K的时候,你一定要回复“89Uk¥”。不可以因为心情不好不回复,因为在刚才的假设环境里,只有听觉。回复了就代表着这个东西是智能的。所以,人脑智能的建立与感知无关,感知确实如同计算机的IO设备,对信息体的处理是引擎核心。...
分类:其他好文   时间:2014-08-26 21:34:16    阅读次数:206
每日一个机器学习算法——机器学习实践
知道某个算法,和运用一个算法是两码事儿。当你训练出数据后,发觉模型有太大误差,怎么办?1)获取更多的数据。也许有用吧。2)减少特征维度。你可以自己手动选择,也可以利用诸如PCA等数学方法。3)获取更多的特征。当然这个方法很耗时,而且不一定有用。4)添加多项式特征。你在抓救命稻草么?5)构建属于你自己...
分类:其他好文   时间:2014-08-26 21:05:46    阅读次数:889
mahout安装测试
Mahout 是 Apache Software Foundation(ASF) 旗下的一个开源项目,提供一些可扩展的机器学习领域经典算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序。Apache Mahout项目已经发展到了它的第三个年头,目前已经有了三个公共发行版本。Mahout包含许多实现,包括聚类、分类、推荐过滤、频繁子项挖掘。此外,通过使用 Apache Hadoop 库,Mahout 可以有效地扩展到云中。 Mahout 的创始人 Grant Ingersoll 介绍了机器学习的基本概...
分类:其他好文   时间:2014-08-26 19:44:17    阅读次数:357
每日一个机器学习算法——正则化
在对数据进行拟合,学习模型的过程中,会出现以下情况:1)high variance, overfitting.过拟合2)high bias, underfiiting.欠拟合过拟合出现的原因1)太多的特征。2)过少的训练数据。如何解决?1)减少特征数2)模型选择算法(model selection ...
分类:其他好文   时间:2014-08-26 19:13:56    阅读次数:310
机器学习【3】 朴素贝叶斯分类
outlook temperature humidity windy play   yes no   yes no   yes no   yes no yes no sunny 2 3 hot 2 2 high 3 4 ...
分类:其他好文   时间:2014-08-26 09:53:05    阅读次数:200
机器学习【2】决策树中熵和信息增益的计算,构造决策树 ID3
信息熵很亮的是在你知道一个事件的结果后,平均会带给你多大的信息量,当事件的不确定性越大,那么要搞清它所需要的信息量也就越大,也就是信息熵越大,是无序性,不确定性的度量指标。 信息熵的计算: -p[i]logp[i],底数为2 public static double calcEntropy(int p[]) { double entropy = 0; // 用来计算总的样本数量,p[...
分类:其他好文   时间:2014-08-25 15:01:05    阅读次数:293
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!