码迷,mamicode.com
首页 >  
搜索关键字:随机梯度    ( 219个结果
机器学习算法(优化)之一:梯度下降算法、随机梯度下降(应用于线性回归、Logistic回归等等)
本文介绍了机器学习中基本的优化算法—梯度下降算法和随机梯度下降算法,以及实际应用到线性回归、Logistic回归、矩阵分解推荐算法等ML中。 梯度下降算法基本公式 常见的符号说明和损失函数 X :所有样本的特征向量组成的矩阵 x(i) 是第i个样本包含的所有特征组成的向量x(i)=(x(i)1,x( ...
分类:编程语言   时间:2018-01-31 14:39:56    阅读次数:221
5. Logistic回归
一、介绍 Logistic回归是广泛应用的机器学习算法,虽然名字里带“回归”,但是它实际上是一种分类方法,主要用于两分类问题(即输出只有两种,分别代表两个类别)。 面对一个回归或者分类问题,建立代价函数(损失函数),使用最优化算法(梯度上升法、改进的随机梯度上升法),找到最佳拟合参数,将数据拟合到一 ...
分类:其他好文   时间:2018-01-27 11:25:47    阅读次数:209
吴恩达-coursera-机器学习-week10
十七、大规模机器学习(Large Scale Machine Learning) 17.1 大型数据集的学习 17.2 随机梯度下降法 17.3 小批量梯度下降 17.4 随机梯度下降收敛 17.5 在线学习 17.6 映射化简和数据并行 十八、应用实例:图片文字识别(Application Exa ...
分类:其他好文   时间:2018-01-17 00:54:52    阅读次数:309
机器学习实战四(Logistic Regression)
机器学习实战四(Logistic Regression) 这一章会初次接触 ,在日常生活中应用很广泛。这里我们会用到基本的梯度上升法,以及改进的随机梯度上升法。 Logistic回归 优点:计算代价不高,易于理解和实现 缺点:容易欠拟合,分裂精度可能不高 原理:根据现有数据堆分类边界线建立回归公式, ...
分类:其他好文   时间:2018-01-10 16:54:25    阅读次数:178
Adam 算法
简介Adam 是一种可以替代传统随机梯度下降(SGD)过程的一阶优化算法,它能基于训练数据迭代地更新神经网络权重。Adam 最开始是由 OpenAI 的 Diederik Kingma 和多伦多大学的 Jimmy Ba 在提交到 2015 年 ICLR 论文(Adam: A Method for S... ...
分类:编程语言   时间:2018-01-03 15:50:56    阅读次数:313
麦子深度学习之-机器学习算法高级进阶
麦子深度学习之-机器学习算法高级进阶 随笔背景:在很多时候,很多入门不久的朋友都会问我:我是从其他语言转到程序开发的,有没有一些基础性的资料给我们学习学习呢,你的框架感觉一下太大了,希望有个循序渐进的教程或者视频来学习就好了。对于学习有困难不知道如何提升自己可以加扣:1225462853进行交流得到 ...
分类:编程语言   时间:2017-11-20 21:45:09    阅读次数:110
最优化方法与机器学习工具集
摘要:   1.最小二乘法   2.梯度下降法   3.最大(对数)似然估计(MLE)   4.最大后验估计(MAP)   5.期望最大化算法(EM)   6.牛顿法   7.拟牛顿迭代(BFGS)   8.限制内存-拟牛顿迭代(L-BFGS)   9.深度学习中的梯度优化算法 ... ...
分类:其他好文   时间:2017-11-12 18:43:11    阅读次数:324
梯度提升树(GBDT)原理小结
转刘建平Pinard 在集成学习之Adaboost算法原理小结中,我们对Boosting家族的Adaboost算法做了总结,本文就对Boosting家族中另一个重要的算法梯度提升树(Gradient Boosting Decison Tree, 以下简称GBDT)做一个总结。GBDT有很多简称,有G ...
分类:其他好文   时间:2017-11-11 13:05:48    阅读次数:217
梯度下降&模拟退火
吴恩达老师的机器学习公开课的第二课主要讲了随机梯度下降算法,我记录了一些要点并写了一点自己的想法于此。 以上便是第二节课的核心内容。 另外的内容还有随机梯度下降法。思想是很平凡的,当数据较多的时候随机选择数据进行梯度下降,以精度换速度。 梯度下降法似乎并不能处理局部最优的问题。吴恩达老师在课上给的解 ...
分类:其他好文   时间:2017-11-10 21:44:20    阅读次数:1782
cs231n spring 2017 lecture7 听课笔记
1. 优化: 1.1 随机梯度下降法(Stochasitc Gradient Decent, SGD)的问题: 1)对于condition number(Hessian矩阵最大和最小的奇异值的比值)很大的loss function,一个方向梯度变化明显,另一个方向梯度变化很缓慢,SGD在优化过程中会 ...
分类:编程语言   时间:2017-11-04 23:29:19    阅读次数:314
219条   上一页 1 ... 10 11 12 13 14 ... 22 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!