码迷,mamicode.com
首页 >  
搜索关键字:梯度下降 机器学习    ( 9962个结果
加州理工学院公开课:机器学习与数据挖掘_Regularization(第十二课)
接上一节课,这一节课的主题是如何利用 Regularization 避免 Overfitting。通过给假设集设定一些限制条件从而避免 Overfitting,但是如果限制条件设置的不恰当就会造成 Underfitting。最后讲述了选择 Regularization 的一些启发式方法。...
分类:其他好文   时间:2014-11-09 11:18:36    阅读次数:129
用Mahout构建职位推荐引擎【一起学Mahout】
阅读导读: 1.如何设计职位推荐引擎的指标? 2.简述职位推荐引擎所需要的系统架构? 3.如何对推荐结果进行人工比较? 4.职位推荐引擎中什么情况的数据最好做排除? 1. Mahout推荐系统框架概述 Mahout框架包含了一套完整的推荐系统引擎,标准化的数据结构,多样的算法实现,简单的开发流程。Mahout推荐的推荐系统引擎是模块化的,分为5个主要部分组成:数据模...
分类:其他好文   时间:2014-11-08 23:43:08    阅读次数:501
支持向量机通俗导论 ——理解SVM的三层境界 总结
1.什么是支持向量机(SVM) 所谓支持向量机,顾名思义,分为两部分了解:一,什么是支持向量(简单来说,就是支持或支撑平面上把两类类别划分开来的超平面的向量点);二,这里的“机(machine,机器)”便是一个算法。在机器学习领域,常把一些算法看做是一个机器,如分类机,而支持向量机本身便是一种监督....
分类:其他好文   时间:2014-11-08 18:01:47    阅读次数:287
多变量线性回归时使用梯度下降(Gradient Descent)求最小值的注意事项
梯度下降是回归问题中求cost function最小值的有效方法,对大数据量的训练集而言,其效果要好于非迭代的normal equation方法。 在将其用于多变量回归时,有两个问题要注意,否则会导致收敛速度小,甚至无法收敛。1. 特征均一化(Feature Scaling) 当特征量多时,...
分类:其他好文   时间:2014-11-08 16:35:06    阅读次数:135
文本特征提取方法研究
文本特征提取方法研究一、课题背景概述文本挖掘是一门交叉性学科,涉及数据挖掘、机器学习、模式识别、人工智能、统计学、计算机语言学、计算机网络技术、信息学等多个领域。文本挖掘就是从大量的文档中发现隐含知识和模式的一种方法和工具,它从数据挖掘发展而来,但与传统的数据挖掘又有许多不同。文本挖掘的对象是海量、...
分类:其他好文   时间:2014-11-08 15:11:24    阅读次数:411
加州理工学院公开课:机器学习与数据挖掘_过拟化(第十一课)
本节课主要介绍了关于机器学习中的过拟化问题。作者指出,区别一个专业级玩家和业余爱好者的方法之一就是他们如何处理过拟化问题。通过该课程,我们可以知道样本数据的拟合并不是越高越好,因为噪声的存在将使得过拟化问题的出现。最后简介了处理过拟合的两种方法。...
分类:其他好文   时间:2014-11-07 23:29:28    阅读次数:273
ML 07、机器学习中的距离度量
机器学习算法 原理、实现与实践 —— 距离的度量声明:本篇文章内容大部分转载于July于CSDN的文章:从K近邻算法、距离度量谈到KD树、SIFT+BBF算法,对内容格式与公式进行了重新整理。同时,文章中会有一些对知识点的个人理解和归纳补充,不代表原文章作者的意图。1. 欧氏距离欧氏距离是最常见的两...
分类:其他好文   时间:2014-11-07 14:30:06    阅读次数:281
Machine Learning:Linear Regression With Multiple Variables
Machine Learning:Linear Regression With Multiple Variables 接着上次预测房子售价的例子,引出多变量的线性回归。 接着上次预测房子售价的例子,引出多变量的线性回归。 多变量梯度下降跟单变量一样需同步更新所有的theta值。 进行feature scaling的原因是为了使grad...
分类:系统相关   时间:2014-11-07 01:02:19    阅读次数:413
LASSO问题及其最优解
转载,原文地址:http://blog.csdn.net/xidianzhimeng/article/details/20856047Sparsity 是当今机器学习领域中的一个重要话题。John Lafferty 和 Larry Wasserman 在 2006 年的一篇评论中提到:Some cu...
分类:其他好文   时间:2014-11-06 23:18:45    阅读次数:2348
非码农也能看懂的“机器学习”原理
我们先来说个老生常谈的情景:某天你去买芒果,小贩摊了满满一车芒果,你一个个选好,拿给小贩称重,然后论斤付钱。 自然,你的目标是那些最甜最成熟的芒果,那怎么选呢?你想起来,啊外婆说过,明黄色的比淡黄色...
分类:其他好文   时间:2014-11-06 20:20:18    阅读次数:281
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!