SGD 梯度下降法根据每次更新参数时使用的样本数量分为Stochastic Gradient Descent(随机梯度下降法,SGD)、mini-batch Gradirnt Descent(小批量梯度下降法,mBGD)和Batch Gradient Descent(批量梯度下降法,BGD)三种。通... ...
分类:
其他好文 时间:
2019-04-11 10:41:24
阅读次数:
184
http://spytensor.com/index.php/archives/20/ 背景 无意间发现了一篇论文《Grad-CAM:Visual Explanations from Deep Networks via Gradient-based Localization》,文中介绍了一种卷积神经 ...
分类:
其他好文 时间:
2019-03-23 10:40:39
阅读次数:
496
import tensorflow as tf import tensorflow.examples.tutorials.mnist.input_data as input_data mnist = input_data.read_data_sets("D:\\F\\TensorFlow_deep_... ...
分类:
编程语言 时间:
2019-03-17 21:45:02
阅读次数:
142
一般线性回归函数的假设函数为: 对应的损失函数为: (这里的1/2是为了后面求导计算方便)下图作为一个二维参数(,)组对应能量函数的可视化图: 下面我们来比较三种梯度下降法 批量梯度下降法BGD (Batch Gradient Descent) 我们的目的是要误差函数尽可能的小,即求解weights ...
分类:
其他好文 时间:
2019-03-17 14:11:58
阅读次数:
237
https://blog.csdn.net/red_stone1/article/details/80212814什么是梯度?对于梯度下降算法(Gradient Descent Algorithm),我们都已经很熟悉了。无论是在线性回归(Linear Regression)、逻辑回归(Logisti ...
分类:
其他好文 时间:
2019-03-14 10:24:37
阅读次数:
203
注意: 1.每次更新,都要进行一次完整的forward和backward,想要进行更新,需要梯度,所以你需要前馈样本,马上反向求导,得到梯度,然后根据求得的梯度进行权值微调,完成权值更新。 2.前馈得到损失,反馈得到梯度,对梯度的使用来完成权值更新。 3. 训练的过程,前馈,反馈,更新;...... ...
分类:
其他好文 时间:
2019-03-13 21:28:25
阅读次数:
222
TensorFlow基础 1、概念 TF使用图表示计算任务,图包括数据(Data)、流(Flow)、图(Graph) 图中节点称为op,一个op获得多个Tensor Tensor为张量,TF中用到的数据都是Tensor 图必须在 中启动 示例 计算两个矩阵的乘积, 2、Tensor类型 (1)常量 ...
分类:
其他好文 时间:
2019-03-02 17:18:29
阅读次数:
211
摘自 https://www.cnblogs.com/wangduo/p/6773601.html?utm_source=itdadao&utm_medium=referral 一、RNN的优缺点 上篇中介绍了RNN。 RNN结构: RNN的优点: RNN的缺点: 二、LSTM(Long, shor ...
分类:
其他好文 时间:
2019-02-26 18:58:16
阅读次数:
787
写在前面的话: 在第一学期做项目的时候用到过相应的知识,觉得挺有趣的,就记录整理了下来,基于C/C++语言 原贴地址:https://helloacm.com/cc-linear-regression-tutorial-using-gradient-descent/ 前言 在机器学习和数据挖掘处理等 ...
分类:
其他好文 时间:
2019-02-24 10:17:06
阅读次数:
185
主要属性: <?xml version="1.0"encoding="utf-8"?><shape > <corners /> <gradient /> <padding /> <size /> <solid /> <stroke /></shape> 1、corners属性(圆角): <corne ...
分类:
其他好文 时间:
2019-02-03 18:09:45
阅读次数:
227