码迷,mamicode.com
首页 >  
搜索关键字:loss    ( 720个结果
softmax求导、cross-entropy求导及label smoothing
softmax求导 softmax层的输出为 其中,表示第L层第j个神经元的输入,表示第L层第j个神经元的输出,e表示自然常数。 现在求对的导数, 如果j=i, 1 如果ji, 2 cross-entropy求导 loss function为 对softmax层的输入求导,如下 label smoo ...
分类:其他好文   时间:2019-07-08 13:56:22    阅读次数:110
Tensorflow Logistic
写代码真的要小心的,小问题调试半天。。。importtensorflowastffromtensorflow.examples.tutorials.mnistimportinput_datamnist=input_data.read_data_sets(‘data/‘,one_hot=True)num_classes=10input_size=784train_iter=50000batch_si
分类:其他好文   时间:2019-07-02 00:26:08    阅读次数:97
Angular vs React---React-ing to change
这篇文章的全局观和思路一级棒! The Fairy Tale Cast your mind back to 2010 when users started to demand interactive web applications. Back then the only real solution ...
分类:其他好文   时间:2019-06-25 19:49:00    阅读次数:152
log loss与ctr预估
ctr预估是工业界做推荐、广告等的基本问题,下面以熟悉的推荐场景为例,目标是提高abtest的线上指标,时长、互动和留存,反应到ctr模型的评估指标,可以是auc,logloss,ngcd等,auc反映了模型区分正负例的能力,auc提高不一定对应到线上指标提示,可能只是对item的预估分更准,对一个 ...
分类:其他好文   时间:2019-06-17 01:10:23    阅读次数:129
tensorflow中gradients的使用以及TypeError: Fetch argument None has invalid type <class 'NoneType'>错误解析
在反向传播过程中,神经网络需要对每一个loss对应的学习参数求偏导,算出的这个值也就是梯度,用来乘以学习率更新学习参数使用的,它是通过tensorflow中gradients函数使用的。 我们根据官方文档对函数原型进行解析 官方文档中函数原型以及参数如下: ys和xs都是张量或者张量列表。函数tf. ...
分类:Web程序   时间:2019-06-16 13:36:56    阅读次数:1043
目标检测Anchor-free分支:基于关键点的目标检测
目标检测Anchor-free分支:基于关键点的目标检测(最新网络全面超越YOLOv3) https://blog.csdn.net/qiu931110/article/details/89430747 目标检测Anchor-free分支:基于关键点的目标检测(最新网络全面超越YOLOv3) htt ...
分类:其他好文   时间:2019-06-14 14:27:16    阅读次数:149
顺序模型api
Compile:配置模型,然后进行训练 compile(optimizer, loss=None, metrics=None, loss_weights=None, sample_weight_mode=None, weighted_metrics=None, target_tensors=None ...
分类:Windows程序   时间:2019-06-07 19:17:53    阅读次数:146
Using Tensorflow SavedModel Format to Save and Do Predictions
We are now trying to deploy our Deep Learning model onto Google Cloud. It is required to use Google Function to trigger the Deep Learning predictions. ...
分类:其他好文   时间:2019-06-05 00:32:37    阅读次数:96
为什么需要做归一化或者标准化
为什么需要做归一化或者标准化 一句话解释就是为了让我们求解loss最低值的过程中更加的平稳和缓,容易收敛。 具体解释可以看这里: 特征工程中的「归一化」有什么作用? 忆臻的回答 知乎 https://www.zhihu.com/question/20455227/answer/197897298 用 ...
分类:其他好文   时间:2019-06-04 12:56:50    阅读次数:117
Batch normalization
Batch normalization 1. 为什么我们需要对特征做feature scaling? 一句话解释就是为了让我们求解loss最低值的过程中更加的平稳和缓,容易收敛。 具体解释可以看这里: 特征工程中的「归一化」有什么作用? 忆臻的回答 知乎 https://www.zhihu.com/ ...
分类:其他好文   时间:2019-06-04 12:38:21    阅读次数:101
720条   上一页 1 ... 21 22 23 24 25 ... 72 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!