码迷,mamicode.com
首页 >  
搜索关键字:hierarchical softmax    ( 573个结果
机器学习--聚类系列--层次聚类
层次聚类 层次聚类(Hierarchical Clustering)是聚类算法的一种,通过计算不同类别数据点间的相似度来创建一棵有层次的嵌套聚类树。在聚类树中,不同类别的原始数据点是树的最低层,树的顶层是一个聚类的根节点。创建聚类树有自下而上合并和自上而下分裂两种方法。 作为一家公司的人力资源部经理 ...
分类:其他好文   时间:2018-07-21 12:08:28    阅读次数:219
SVM和SoftMax的原理区别对比
https://blog.csdn.net/han_xiaoyang/article/details/49999583 1. 线性分类器 在深度学习与计算机视觉系列(2)我们提到了图像识别的问题,同时提出了一种简单的解决方法——KNN。然后我们也看到了KNN在解决这个问题的时候,虽然实现起来非常简单 ...
分类:其他好文   时间:2018-07-15 11:03:48    阅读次数:373
FastText
总览 用途:文本分类 优点:在精度上与深度学习的方法媲美,但更高效,速度快多个数量级。 模型结构 fastText的结构:输入为一个句子的N个词(ngram)的向量表示,训练之前此向量可利用随机数进行初始化,随后将这些词向量加权平均得到对应文本的向量表示;输出为文本对应的标签。此模型结构与CBOW很 ...
分类:其他好文   时间:2018-07-12 20:15:49    阅读次数:168
Softmax && Cross-entropy Error
softmax 函数,被称为 归一化指数函数,是sigmoid函数的推广。 它将向量等比压缩到[0, 1]之间,所有元素和为1. Example: softmax([1, 2, 3, 4, 1, 2, 3]) = [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, ...
分类:其他好文   时间:2018-07-08 20:37:07    阅读次数:180
Python机器学习——Agglomerative层次聚类
层次聚类(hierarchical clustering)可在不同层次上对数据集进行划分,形成树状的聚类结构。AggregativeClustering是一种常用的层次聚类算法。 其原理是:最初将每个对象看成一个簇,然后将这些簇根据某种规则被一步步合并,就这样不断合并直到达到预设的簇类个数。这里的关 ...
分类:编程语言   时间:2018-07-01 21:22:44    阅读次数:3026
The fall of RNN / LSTM-hierarchical neural attention encoder, Temporal convolutional network (TCN)
Refer to : https://towardsdatascience.com/the-fall-of-rnn-lstm-2d1594c74ce0 (The fall of RNN / LSTM) “hierarchical neural attention encoder”, shown in ...
分类:Web程序   时间:2018-07-01 10:28:15    阅读次数:434
Confluence 6 附件存储文件系统的分级
从 Confluence 3.0 开始,附件的存储方式有了重大的改变和升级。如果你是从 Confluence 2.10 及其早期版本升级上来的,请参考 Upgrading Confluence 页面中推荐的升级路径,同时请阅读 Confluence 3.0 文档中 Hierarchical File ...
分类:其他好文   时间:2018-06-29 00:08:50    阅读次数:269
分段线性分类器:DNN的一种可视化解释
一、原理 Exact and Consistent Interpretation for Piecewise Linear Neural Networks: A Closed Form Solution KDD2018的这篇文章,指出对于采用分段线性激活函数如Relu、最后接softmax的深度学习 ...
分类:其他好文   时间:2018-06-28 19:25:05    阅读次数:504
项目讲解
1.mimic+refindet 之前的mimic网络主要做分类问题,将小网络的输出 - 大网络的输出然后l2-loss开平方来让小网络学习(这个输出究竟是softmax的输出还是就是最后一层)。检测直接套用这种方式还没有直接finetune的效好。因为score和location都是来自featu ...
分类:其他好文   时间:2018-06-23 19:19:06    阅读次数:134
TF-logtis模型
logtis模型: logits: 一个事件发生与该事件不发生的比值的对数。假设一个事件发生的概率为 p,那么该事件的 logits 为 . 现在来看一下这个式子和 softmax 有啥关系。在 dl 中,softmax 层会对输入进行归一化处理以得到概率分布:如下面式子所述 就是 tensorfl ...
分类:其他好文   时间:2018-06-07 14:32:00    阅读次数:375
573条   上一页 1 ... 21 22 23 24 25 ... 58 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!