损失函数的基本用法: 得到的loss结果已经对mini-batch数量取了平均值 1.BCELoss(二分类) 创建一个衡量目标和输出之间二进制交叉熵的criterion unreduced loss函数(即reduction参数设置为'none')为: N表示batch size,xn为输出,yn ...
分类:
其他好文 时间:
2019-05-14 19:23:36
阅读次数:
284
42028: Assignment 2 – Autumn 2019 Page 1 of 4Faculty of Engineering and Information TechnologySchool of Software42028: Deep Learning and Convolutional ...
分类:
其他好文 时间:
2019-05-12 19:51:54
阅读次数:
127
gvs = optimizer.compute_gradients(loss) # 计算出梯度和变量值 capped_gvs = [(tf.clip_by_value(grad, -5e+10, 5e+10), var) for grad, var in gvs] # 梯度裁剪 train_op =... ...
分类:
其他好文 时间:
2019-05-06 14:26:46
阅读次数:
143
from sklearn.metrics import zero_one_loss,log_loss def test_zero_one_loss(): y_true=[1,1,1,1,1,0,0,0,0,0] y_pred=[0,0,0,1,1,1,1,1,0,0] print("zero_one... ...
分类:
编程语言 时间:
2019-05-02 14:30:57
阅读次数:
327
softmax 和 cross entropy 是机器学习中很常用的函数,softmax 常用来作为 DNN 分类网络最后一层的激活函数,而 cross entropy 也是一种常用的 loss function。熟悉两者的求导有助于理解为什么 tensorflow 会把这两个函数封装成一个 fun... ...
分类:
其他好文 时间:
2019-04-29 16:03:27
阅读次数:
159
paper url: https://arxiv.org/pdf/1612.02295year:2017## Introduction交叉熵损失与softmax一起使用可以说是CNN中最常用的监督组件之一。 尽管该组件简单而且性能出色, 但是它只要求特征的可分性, 没有明确鼓励网络学习到的特征具有类... ...
分类:
Web程序 时间:
2019-04-29 11:01:11
阅读次数:
856
转自:https://blog.csdn.net/tsyccnh/article/details/79163834 关于交叉熵在loss函数中使用的理解交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分类问题的时候,没有过多的注意,直接调用 ...
分类:
其他好文 时间:
2019-04-18 00:45:09
阅读次数:
983
word2vec完整的解释可以参考《word2vec Parameter Learning Explained》这篇文章。 cbow模型 cbow模型的全称为Continuous Bag-of-Word Model。该模型的作用是根据给定的词$w_{input}$,预测目标词出现的概率$w_t$,对 ...
分类:
其他好文 时间:
2019-04-16 00:55:19
阅读次数:
298
问题 如上图所示,第二次迭代时出现NAN值 定位loss NAN的方法 使用tensorflow的代码调试模块tfdbg,可以看到运行tensorflow graph时的内部结构体和状态,方便排查变量出现NAN、inf的情况。tfdbg的官方文档介绍 https://www.tensorflow.o ...
分类:
其他好文 时间:
2019-04-13 18:57:42
阅读次数:
198
APP网络测试要点和弱网模拟 当前APP网络环境比较复杂,网络制式有2G、3G、4G网络,还有越来越多的公共Wi-Fi。不同的网络环境和网络制式的差异,都会对用户使用app造成一定影响。另外,当前app使用场景多变,如进地铁、上公交、进电梯等,使得弱网测试显得尤为重要。如果app没有对各种网络异常进 ...
分类:
移动开发 时间:
2019-04-13 01:12:00
阅读次数:
194