码迷,mamicode.com
首页 >  
搜索关键字:softmax    ( 420个结果
小白学习之pytorch框架(4)-softmax回归(torch.gather()、torch.argmax())
学习pytorch路程之动手学深度学习-3.4-3.7 置信度、置信区间参考:https://cloud.tencent.com/developer/news/452418 本人感觉还是挺好理解的 交叉熵参考博客:https://www.cnblogs.com/kyrieng/p/8694705.h ...
分类:其他好文   时间:2020-01-01 23:40:54    阅读次数:179
softmax交叉熵损失函数求导
来源:https://www.jianshu.com/p/c02a1fbffad6 简单易懂的softmax交叉熵损失函数求导 来写一个softmax求导的推导过程,不仅可以给自己理清思路,还可以造福大众,岂不美哉~ softmax经常被添加在分类任务的神经网络中的输出层,神经网络的反向传播中关键的 ...
分类:其他好文   时间:2020-01-01 18:58:50    阅读次数:67
Center Loss - A Discriminative Feature Learning Approach for Deep Face Recognition
URL:http://ydwen.github.io/papers/WenECCV16.pdf这篇论文主要的贡献就是提出了Center Loss的损失函数,利用Softmax Loss和Center Loss联合来监督训练,在扩大类间差异的同时缩写类内差异,提升模型的鲁棒性。为了直观的说明softm... ...
分类:移动开发   时间:2019-12-25 23:34:57    阅读次数:108
吴裕雄--天生自然TensorFlow高层封装:使用TensorFlow-Slim处理MNIST数据集实现LeNet-5模型
# 1. 通过TensorFlow-Slim定义卷机神经网络 import numpy as np import tensorflow as tf import tensorflow.contrib.slim as slim from tensorflow.examples.tutorials.mn... ...
分类:Web程序   时间:2019-12-19 21:05:40    阅读次数:98
吴裕雄--天生自然 pythonTensorFlow自然语言处理:交叉熵损失函数
import tensorflow as tf # 1. sparse_softmax_cross_entropy_with_logits样例。 # 假设词汇表的大小为3, 语料包含两个单词"2 0" word_labels = tf.constant([2, 0]) # 假设模型对两个单词预测时,... ...
分类:编程语言   时间:2019-12-19 16:16:25    阅读次数:116
机器学习之sigmoid函数
先说一下,ML小白。 这是第一次写个人博客类似东西, 主要来说说看 sigmoid 函数,sigmoid函数是机器学习中的一个比较常用的函数,与之类似的还有softplus和softmax等函数,这里也就不说,先来看看sigmoid函数的表达式的和图像 sigmoid函数表达式如下 这就是sigmo ...
分类:其他好文   时间:2019-12-17 15:08:32    阅读次数:76
直观理解为什么分类问题用交叉熵损失而不用均方误差损失?
[TOC] 博客: "blog.shinelee.me" | "博客园" | "CSDN" 交叉熵损失与均方误差损失 常规分类网络最后的softmax层如下图所示,传统机器学习方法以此类比, 一共有$K$类,令网络的输出为$[\hat{y}_1,\dots, \hat{y}_K]$,对应每个类别的概 ...
分类:其他好文   时间:2019-12-13 00:02:56    阅读次数:258
Sigmoid函数与Softmax函数的理解
1. Sigmod 函数 1.1 函数性质以及优点 其实logistic函数也就是经常说的sigmoid函数,它的几何形状也就是一条sigmoid曲线(S型曲线)。 其中z是一个线性组合,比如z可以等于:b + w1*x1 + w2*x2。通过代入很大的正数或很小的负数到g(z)函数中可知,其结果趋 ...
分类:其他好文   时间:2019-12-09 13:51:04    阅读次数:564
循环神经网络
处理文本 长距离依赖关系 处理变长输入序列 原理 展开之后是一个$T$层的前馈神经网络 计算公式 $$net_t = Ux_t + Wh_{t 1}$$ $$h_t = f(net_t)$$ $$y = g(Vh_T)$$ $f$为激活函数,$g$为最后的分类函数(如Softmax) $U$为输入层 ...
分类:其他好文   时间:2019-11-24 17:17:35    阅读次数:71
cvpr2019_Unsupervised Person Re-identification by Soft Multilabel Learning
很好的一篇文章,不愧是reid大组中山大学Weishi-Zheng老师的工作 文章的基本出发点很有意思:用source domain的feature做作为参考,衡量target domain images是否相似,从而构成正负样本进行contrasive learning和domain adapti ...
分类:其他好文   时间:2019-11-23 21:57:49    阅读次数:197
420条   上一页 1 ... 5 6 7 8 9 ... 42 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!