1. 三个经典网络 红色部分不重要,现在已经不再使用 这篇文章较早,比如现在常用max,而当时用avg,当时也没有softmax 这篇文章让CV开始重视DL的使用,相对于LeNet-5,它的优点有两个:更大,使用ReLU 以作者名字命名 same表示使用same过滤器,也就是输入和输出维度一致 16 ...
分类:
其他好文 时间:
2018-04-30 22:12:26
阅读次数:
561
一、Hierarchical Clustering简介 层次聚类(Hierarchical Clustering)是聚类算法的一种,通过计算不同类别数据点间的相似度来创建一棵有层次的嵌套聚类树。在聚类树中,不同类别的原始数据点是树的最低层,树的顶层是一个聚类的根节点。 二、层次聚类的合并算法 假设有 ...
分类:
其他好文 时间:
2018-04-30 11:59:08
阅读次数:
152
导读 本文简单的介绍了Google 于 2013 年开源推出的一个用于获取 word vector 的工具包(word2vec),并且简单的介绍了其中的两个训练模型(Skip gram,CBOW),以及两种加速的方法(Hierarchical Softmax,Negative Sampling)。 ...
分类:
其他好文 时间:
2018-04-24 21:54:36
阅读次数:
533
《Deep Learning》(Ian Goodfellow & Yoshua Bengio & Aaron Courville)第四章「数值计算」中,谈到了上溢出(overflow)和下溢出(underflow)对数值计算的影响,并以softmax函数和log softmax函数为例进行了讲解。这 ...
分类:
其他好文 时间:
2018-04-21 14:28:31
阅读次数:
282
上图Package Presentation > Hierarchical(如下图显示父包与子包) 参考:https://zhidao.baidu.com/question/2205086524432376588.html ...
分类:
系统相关 时间:
2018-04-13 13:25:52
阅读次数:
246
tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 除去name参数用以指定该操作的name,与方法有关的一共两个参数: 第一个参数logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[batc ...
分类:
其他好文 时间:
2018-04-13 13:21:46
阅读次数:
152
训练Embedding的时候,程序里面发现了AUC,因此处正样本始终只有一个(参考 "上一篇" )为了克服样本不平衡带来的metric指示出现不能反应模型真实能力的问题(比如acc中,模型全偏向比重大的标签),需要AUC进行判别。以前试过几次,过段时间就忘了,希望这次理解深刻些。 关于理解 先附上链 ...
分类:
其他好文 时间:
2018-04-03 17:36:33
阅读次数:
185
wiki百科:softmax函数的本质就是将一个K维的任意实数向量压缩(映射)成另一个K维的实数向量,其中向量中的每个元素取值都介于(0,1)之间。 一、疑问 二、知识点 1. softmax函数公式的意义 ? 在softmax函数,输入向量z的值有正有负,正数表示对应的特征对分类结果是积极的,负数 ...
分类:
其他好文 时间:
2018-04-03 12:44:19
阅读次数:
310
Weakly Supervised Deep Detection Networks,Hakan Bilen,Andrea Vedaldi https://www.cv-foundation.org/openaccess/content_cvpr_2016/papers/Bilen_Weakly_Su ...
分类:
Web程序 时间:
2018-04-02 20:07:27
阅读次数:
470
Softmax回归 Contents [hide] 1 简介 2 代价函数 3 Softmax回归模型参数化的特点 4 权重衰减 5 Softmax回归与Logistic 回归的关系 6 Softmax 回归 vs. k 个二元分类器 7 中英文对照 8 中文译者 简介 在本节中,我们介绍Softm ...
分类:
其他好文 时间:
2018-04-01 13:10:24
阅读次数:
221