Embedding层 参数 input_dim: 字典长度, 单词的数量 output_dim: 词向量的长度 weights: 用于初始化的参数矩阵, 大小为(input_dim, output_dim) input_length: 单个序列的长度, 即时间步长 trainable: 是否可训练. ...
分类:
其他好文 时间:
2018-06-24 23:47:50
阅读次数:
192
基线系统需要受到更多关注:基于词向量的简单模型 最近阅读了《Baseline Needs More Love: On Simple Word-Embedding-Based Models and Associated Pooling Mechanisms》这篇论文[1],该工作来自杜克大学,发表在A ...
分类:
其他好文 时间:
2018-06-22 13:28:26
阅读次数:
439
Caffe 全称为 Convolutional Architecture for Fast Feature Embedding,是一个被广泛使用的开源深度学习框架(在 TensorFlow 出现之前一直是深度学习领域 GitHub star 最多的项目),目前由伯克利视觉学中心(Berkeley V ...
分类:
其他好文 时间:
2018-06-12 16:28:13
阅读次数:
177
弄懂基本上的专有术语以后,阅读理解论文的速度就会大大增快,所以,看到每篇论文的生词就记录下来,方便以后查阅和学习! 2.中的术语:object dection(目标检测),region proposal network(RPN 区域推荐网络), bilinear interpolation(双线性插 ...
分类:
Web程序 时间:
2018-06-04 21:27:10
阅读次数:
270
场景:上次回答word2vec相关的问题,回答的是先验概率和后验概率,没有回答到关键点。 词袋模型(Bag of Words, BOW)与词向量(Word Embedding)模型 词袋模型就是将句子分词,然后对每个词进行编码,常见的有one hot、TF IDF、Huffman编码,假设词与词之间 ...
分类:
其他好文 时间:
2018-05-21 00:01:36
阅读次数:
807
Embedding the Python Interpreter ...
分类:
编程语言 时间:
2018-05-14 23:07:16
阅读次数:
407
真正掌握一种算法,最实际的方法,完全手写出来。 LSTM(Long Short Tem Memory)特殊递归神经网络,神经元保存历史记忆,解决自然语言处理统计方法只能考虑最近n个词语而忽略更久前词语的问题。用途:word representation(embedding)(词语向量)、sequen ...
分类:
其他好文 时间:
2018-05-01 15:27:29
阅读次数:
318
Caffe,全称Convolutional Architecture for Fast Feature Embedding。是一种常用的深度学习框架,在视频、图像处理方面应用较多。 ...
分类:
系统相关 时间:
2018-04-07 12:55:27
阅读次数:
214
源 | 小象 文 | 小象君近日,GitHub发布一则通知,深度学习框架Caffe现已将代码并入了PyTorch。Caffe(卷积神经网络框架),全称Convolutional Architecture for Fast Feature Embedding。是一种常用的深度学习框架,在视频、图像处理方面应用较多。Caffe2是开源Caffe
分类:
其他好文 时间:
2018-04-03 18:14:28
阅读次数:
310
训练Embedding的时候,程序里面发现了AUC,因此处正样本始终只有一个(参考 "上一篇" )为了克服样本不平衡带来的metric指示出现不能反应模型真实能力的问题(比如acc中,模型全偏向比重大的标签),需要AUC进行判别。以前试过几次,过段时间就忘了,希望这次理解深刻些。 关于理解 先附上链 ...
分类:
其他好文 时间:
2018-04-03 17:36:33
阅读次数:
185