码迷,mamicode.com
首页 >  
搜索关键字:人工智能 机器学习 资源分享    ( 12648个结果
机器学习实战:数据预处理之独热编码(One-Hot Encoding)
问题由来在很多机器学习任务中,特征并不总是连续值,而有可能是分类值。例如,考虑一下的三个特征:["male","female"]["from Europe","from US","from Asia"]["uses Firefox","uses Chrome","uses Safari","uses...
分类:其他好文   时间:2014-06-04 17:03:02    阅读次数:344
kNN(K-Nearest Neighbor)最邻近规则分类
KNN最邻近规则,主要应用领域是对未知事物的识别,即判断未知事物属于哪一类,判断思想是,基于欧几里得定理,判断未知事物的特征和哪一类已知事物的的特征最接近;K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果...
分类:其他好文   时间:2014-06-04 16:22:30    阅读次数:399
腾讯微信封杀微软小冰,不足为奇
无疑,微软小冰在技术上是一个非常棒的产品,这也是我最为关注的人工智能领域微软公司的一次新的尝试。微软亚洲互联网研究院没落了那么多年,想出奇制胜的心理可以理解(太明显了,从名字就看出来了),但方法欠妥,微软亚洲研究院也大可不必装得楚楚可怜。 然而,单就小冰入驻微信的方式,我实在难以想象像微软这样的公司...
分类:微信   时间:2014-06-04 15:24:50    阅读次数:428
Mahout学习之Mahout简单介绍、安装、配置、入门程序測试
一、Mahout简单介绍查了Mahout的中文意思——驭象的人,再看看Mahout的logo,好吧,想和小黄象happy地玩耍,得顺便陪陪这位驭象人耍耍了...附logo:(就是他,骑在象头上的那个Mahout)步入正文啦: Mahout是一个非常强大的数据挖掘工具,是一个分布式机器学习算法的集.....
分类:其他好文   时间:2014-06-02 08:14:03    阅读次数:273
牛顿法与拟牛顿法学习笔记(三)DFP 算法
机器学习算法中经常碰到非线性优化问题,如 Sparse Filtering 算法,其主要工作在于求解一个非线性极小化问题。在具体实现中,大多调用的是成熟的软件包做支撑,其中最常用的一个算法是 L-BFGS。为了解这个算法的数学机理,这几天做了一些调研,现把学习过程中理解的一些东西整理出来。目录...
分类:其他好文   时间:2014-06-02 07:31:21    阅读次数:227
牛顿法与拟牛顿法学习笔记(四)BFGS 算法
机器学习算法中经常碰到非线性优化问题,如 Sparse Filtering 算法,其主要工作在于求解一个非线性极小化问题。在具体实现中,大多调用的是成熟的软件包做支撑,其中最常用的一个算法是 L-BFGS。为了解这个算法的数学机理,这几天做了一些调研,现把学习过程中理解的一些东西整理出来。目录链接....
分类:其他好文   时间:2014-06-02 07:30:03    阅读次数:249
牛顿法与拟牛顿法学习笔记(五)L-BFGS 算法
机器学习算法中经常碰到非线性优化问题,如 Sparse Filtering 算法,其主要工作在于求解一个非线性极小化问题。在具体实现中,大多调用的是成熟的软件包做支撑,其中最常用的一个算法是 L-BFGS。为了解这个算法的数学机理,这几天做了一些调研,现把学习过程中理解的一些东西整理出来。目录链接....
分类:其他好文   时间:2014-06-02 07:28:41    阅读次数:197
牛顿法与拟牛顿法学习笔记(一)牛顿法
机器学习算法中经常碰到非线性优化问题,如 Sparse Filtering 算法,其主要工作在于求解一个非线性极小化问题。在具体实现中,大多调用的是成熟的软件包做支撑,其中最常用的一个算法是 L-BFGS。为了解这个算法的数学机理,这几天做了一些调研,现把学习过程中理解的一些东西整理出来。目录链.....
分类:其他好文   时间:2014-06-02 07:28:03    阅读次数:210
牛顿法与拟牛顿法学习笔记(二)拟牛顿条件
机器学习算法中经常碰到非线性优化问题,如 Sparse Filtering 算法,其主要工作在于求解一个非线性极小化问题。在具体实现中,大多调用的是成熟的软件包做支撑,其中最常用的一个算法是 L-BFGS。为了解这个算法的数学机理,这几天做了一些调研,现把学习过程中理解的一些东西整理出来。目录链接(...
分类:其他好文   时间:2014-06-02 07:27:27    阅读次数:274
人工智能——α-β剪枝
剪枝的概念极大极小过程是先生成与/或树,然后再计算各节点的估值,这种生成节点和计算估值相分离的方式,需生成规定深度内的所有节点,搜索效率较低。 如果能边生成节点边对节点估值,并剪去一些没用的分枝,这种技术被称为α-β剪枝。剪枝方法(1) MAX节点(或节点)的α值为当前子节点的最大到推值;(2) M...
分类:其他好文   时间:2014-06-01 12:32:00    阅读次数:552
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!