贡献指南:https://github.com/apachecn/ds100 textbook zh/blob/master/CONTRIBUTING.md 整体进度:https://github.com/apachecn/ds100 textbook zh/issues/2 项目仓库:https: ...
分类:
Web程序 时间:
2019-12-30 23:25:16
阅读次数:
136
系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI, 点击star加星不要吝啬,星越多笔者越努力。 第2章 神经网络中的三个基本概念 2.0 通俗地理解三大概念 这三大概念是:反向传播,梯度下降,损失函数。 神经网络训练的最基本的思想就是:先“猜”一个结果 ...
分类:
其他好文 时间:
2019-12-20 11:52:06
阅读次数:
460
SGDSolver类简介 Solver类用于网络参数的更新,而SGDSolver类实现了优化方法中的随机梯度下降法(stochastic gradient descent),此外还具备缩放、正则化梯度等功能。caffe中其他的优化方法都是SGDSolver类的派生类,重载了基类的 函数,用于各自计算 ...
分类:
其他好文 时间:
2019-12-19 10:04:52
阅读次数:
96
线性回归的定义 利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之间关系进行建模的一种分析方式 线性回归的分类 线性关系 非线性关系 损失函数 最小二乘法 线性回归优化方法 正规方程 梯度下降法 正规方程 -- 一蹴而就 利用矩阵的逆,转置进行一步求解 只是适合样本和特征比较少的情 ...
假期找了几本关于机器学习的书,将一些比较重要的核心公式整体到这里。模型描述特征空间假设, 寻找线性系数 $ theta $ 以希望用一个线性函数逼近目标向量。逼近的效果好坏叫做 Cost Function, 下面列出的MSE便是其中一种。Linear Regression梯度下降其中 带有正则项Ri... ...
分类:
系统相关 时间:
2019-12-14 09:50:37
阅读次数:
113
假设(基于二维) 训练集 $$ \begin{bmatrix} 1&x_{11}&{\cdots}&x_{1n}\\ 1&x_{21}&{\cdots}&x_{2n}\\ {\vdots}&{\vdots}&{\ddots}&{\vdots}\\ 1&x_{m1}&{\cdots}&x_{mn}\\ ...
分类:
编程语言 时间:
2019-12-10 22:18:40
阅读次数:
126
系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI, 点击star加星不要吝啬,星越多笔者越努力。 4.5 梯度下降的三种形式 我们比较一下目前我们用三种方法得到的w和b的值,见表4 2。 表4 2 三种方法的结果比较 |方法|w|b| | | | | | ...
分类:
其他好文 时间:
2019-12-10 13:01:03
阅读次数:
105
梯度下降:实现梯度下降、线性回归中的梯度下降 随机梯度下降:相关代码即调用 本文参考:公众号《数据科学家联盟》文章 转自:https://www.cnblogs.com/huangyc/p/9801261.html#_label1_0 一、概念 梯度下降(Gradient Descent, GD)不 ...
分类:
其他好文 时间:
2019-12-08 12:49:36
阅读次数:
116
系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI, 点击star加星不要吝啬,星越多笔者越努力。 4.3 神经网络法 在梯度下降法中,我们简单讲述了一下神经网络做线性拟合的原理,即: 1. 初始化权重值 2. 根据权重值放出一个解 3. 根据均方差函数求 ...
分类:
其他好文 时间:
2019-12-06 13:18:19
阅读次数:
180
系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI, 点击star加星不要吝啬,星越多笔者越努力。 4.2 梯度下降法 有了上一节的最小二乘法做基准,我们这次用梯度下降法求解w和b,从而可以比较二者的结果。 4.2.1 数学原理 在下面的公式中,我们规定x ...
分类:
其他好文 时间:
2019-12-05 13:04:24
阅读次数:
108