码迷,mamicode.com
首页 >  
搜索关键字:loss    ( 720个结果
在Keras中使用tensorboard可视化acc等曲线
1.使用tensorboard可视化ACC,loss等曲线 然后新开一个终端 输入: 之后打开终端给出的网址即可。 2.直接使用matplotlib画出训练LOSS与ACC曲线 第一步: 第二步: 第三步: ...
分类:其他好文   时间:2018-08-05 21:24:47    阅读次数:895
【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
在计算loss的时候,最常见的一句话就是 tf.nn.softmax_cross_entropy_with_logits ,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, ...
分类:其他好文   时间:2018-08-03 18:08:32    阅读次数:166
Ambari Metrics Collector移动日志目录后启动报错
今天早上集群空间满了,移动Ambari Metrics Collector日志目录后服务启动不了,日志如下: 最后找到解决办法: https://blog.csdn.net/zhouyuanlinli/article/details/79552347 把保存监控数据的/var/lib/ambari- ...
分类:移动开发   时间:2018-07-30 13:22:32    阅读次数:415
Mininet 链路可选配置
https://github.com/mininet/mininet/wiki/Introduction-to-Mininet self.addLink( node1, node2, bw=10, delay='5ms', max_queue_size=1000, loss=10, use_htb= ...
分类:Web程序   时间:2018-07-29 15:23:38    阅读次数:278
损失函数
损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可 ...
分类:其他好文   时间:2018-07-26 13:05:52    阅读次数:162
The Multilinear Structure of ReLU Networks
两种非常常见的非线性单元:rectified linear units (ReLUs) 和 leaky ReLUs 我们选取binary hinge loss进行二分类 对于多分类,我们可以定义multiclass hinge loss 定义Ω为网络的参数空间, L(ω)为loss。 由于我们选了R ...
分类:Web程序   时间:2018-07-19 22:30:30    阅读次数:258
记录训练损失的一些规律
train loss 不断下降,test loss不断下降,说明网络仍在学习; train loss 不断下降,test loss趋于不变,说明网络过拟合; train loss 趋于不变,test loss不断下降,说明数据集100%有问题; train loss 趋于不变,test loss趋于 ...
分类:其他好文   时间:2018-07-18 10:14:40    阅读次数:646
sgd学习率选择问题
关于使用SGD时如何选择初始的学习率(这里SGD是指带动量的SGD,momentum=0.9): 训练一个epoch,把学习率从一个较小的值(10-8)上升到一个较大的值(10),画出学习率(取log)和经过平滑后的loss的曲线,根据曲线来选择合适的初始学习率。 从上图可以看出学习率和loss之间 ...
分类:其他好文   时间:2018-07-17 23:34:47    阅读次数:804
2018百度之星开发者大赛-paddlepaddle学习
前言 本次比赛赛题是进行人流密度的估计,因为之前看过很多人体姿态估计和目标检测的论文,隐约感觉到可以用到这次比赛上来,所以趁着现在时间比较多,赶紧报名参加了一下比赛,比赛规定用paddlepaddle来进行开发,所以最近几天先学习一下paddlepaddle的相关流程,在这里记录一下,也好让自己真正 ...
分类:其他好文   时间:2018-07-16 23:15:02    阅读次数:214
tensorflow Optimizer.minimize()和gradient clipping
在tensorflow中通常使用下述方法对模型进行训练 train指向的是tf.Graph中关于训练的节点,其中opt.minimize(loss)相当不直观,它相当于 即建立了求梯度的节点和optimizer根据梯度对变量进行修改的节点 因此,可以通过下述方法对梯度进行修改 举两个例子 ...
分类:其他好文   时间:2018-07-16 19:26:15    阅读次数:6350
720条   上一页 1 ... 37 38 39 40 41 ... 72 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!