激活函数:将神经网络上一层的输入,经过神经网络层的非线性变换转换后,通过激活函数,得到输出。常见的激活函数包括:sigmoid, tanh, relu等。https://blog.csdn.net/u013250416/article/details/80991831 为什么要引入非线性激活函数 如 ...
分类:
其他好文 时间:
2018-12-06 17:47:47
阅读次数:
206
从最简单的线性回归来说,小批量随机梯度下降的时候,X,y 从迭代器中取出,也是bach_size大小的数据集,那么网络的计算,同样也是小批量的。 即代码 l = loss(net(X),y) 包含了,小批量数据集,每一个数据丢到网络中,计算出返回值以后,和真实值得损失。 ...
分类:
其他好文 时间:
2018-12-01 18:40:19
阅读次数:
215
from mxnet import gluon,init,nd,autograd from mxnet.gluon import data as gdata,nn from mxnet.gluon import loss as gloss import mxnet as mx import time... ...
分类:
Web程序 时间:
2018-11-30 20:17:31
阅读次数:
231
import mxnet as mx import sys from mxnet import autograd,nd from mxnet import gluon,init from mxnet.gluon import nn,loss as gloss from mxnet.gluon imp... ...
分类:
Web程序 时间:
2018-11-30 14:14:41
阅读次数:
168
1. Tensorflow 图的模式 定义各模块,前三个步相当于搭建了模型的静态图。 1. 数据输入函数 2. 优化问题的loss函数, 效果度量函数。注: loss 函数相当于定义深层网络。 3. 参数优化算子 4. 通过 循环 的调用section.run 刷新优化参数,loss函数值,效果度量 ...
分类:
其他好文 时间:
2018-11-29 20:20:13
阅读次数:
187
from mxnet import gluon,init from mxnet.gluon import nn,loss as gloss from mxnet.gluon import data as gdata from mxnet import autograd,nd # 二维互相关运算 de... ...
分类:
其他好文 时间:
2018-11-29 12:21:11
阅读次数:
182
from mxnet import gluon,init from mxnet.gluon import loss as gloss, nn from mxnet.gluon import data as gdata from mxnet import nd,autograd import gluo ...
分类:
其他好文 时间:
2018-11-28 19:05:14
阅读次数:
260
1.目标函数(objective function)或准则(criterion) 要最小化或最大化的函数 最小化时,我们也把它称为代价函数(cost function)、损失函数(loss function)或误差函数(error function) 一个上标 ? 表示最小化或最大化函数的 x 值。 ...
分类:
其他好文 时间:
2018-11-28 12:21:45
阅读次数:
235
简介: MySQL主从复制也称主从同步,他是构建数据库高可用集群架构的基础,将一台主机的数据复制到多台主机,并重新应用日志中的SQL语句实现复制功能 MySQL支持单向,双向,链式级联,异步复制 5.5版本新增半同步复制 5.6新增GTID复制 5.7新增多源复制/并行复制/loss-less复制, ...
分类:
数据库 时间:
2018-11-26 20:27:32
阅读次数:
234
知乎:一文读懂CRNN+CTC文本行识别 (详解 CTC loss) 来自: https://zhuanlan.zhihu.com/p/43534801 文字检测主要解决的问题是哪里有文字,文字的范围有多大,即定位文本行的所在位置和范围及其布局。 文本识别是在文本行定位的基础上,对文本行内容进行识别 ...
分类:
其他好文 时间:
2018-11-26 13:48:37
阅读次数:
342