相关代码 报错: 报错信息中的`4000`是目标语言的词汇量,可能是设置的值过小导致,改成比5545大的数就OK了。 ...
分类:
其他好文 时间:
2018-09-18 13:05:34
阅读次数:
2483
网络表征学习(network representation learning,NRL)&网络嵌入(network embedding,NE)&图嵌入(Graph Embedding Method,GE):用低维、稠密、实值的向量表示网络中的节点,也即映射到K维的隐空间。 近年来,网络表征学习领域是复 ...
分类:
其他好文 时间:
2018-08-22 22:01:03
阅读次数:
4754
"参考博客 Errors_In_Life" 1. Caffe ,全称 Convolutional Architecture for Fast Feature Embedding ,中文名: 卷积神经网络框架 2. 基本概念 Blobs : Caffe使用blobs结构来存储,交换和处理网络中正向和反 ...
分类:
其他好文 时间:
2018-08-21 19:40:57
阅读次数:
227
jfdslan | SST 1 | sst 2 | | 1D CNN | 36.4 | 81.0 kimCNN | 46.7 | 86.3 1D 2D CNN | 49.8 | 87.5 nisdhkfd boewhrkjhb ...
分类:
其他好文 时间:
2018-08-19 20:34:48
阅读次数:
207
文本 文本预处理 1. 中文分词:分词工具: "jieba" / "snownlp" /...,是否需要去除停用词? 2. word embedding:工具:word2vec/ doc2vec/ TF IDF/ CountVectorizer/ HashVectorizer/ ....作为模型输入 ...
分类:
其他好文 时间:
2018-07-23 19:57:03
阅读次数:
182
如何用textgenrnn处理中文 1. 什么是textgenrnn? textgenrnn是建立在Keras和TensorFlow之上的,可用于生成 和`词级别`文本。网络体系结构使用注意力加权来加速训练过程并提高质量,并允许调整大量超参数,如RNN模型大小、RNN层和双向RNN。对细节感兴趣的读 ...
分类:
其他好文 时间:
2018-07-22 19:20:16
阅读次数:
278
tf.nn.nce_loss是word2vec的skip-gram模型的负例采样方式的函数,下面分析其源代码。 1 上下文代码 其中, train_inputs中的就是中心词,train_label中的就是语料库中该中心词在滑动窗口内的上下文词。 所以,train_inputs中会有连续n-1(n为 ...
分类:
其他好文 时间:
2018-07-09 17:17:32
阅读次数:
621
一、前述 Caffe,全称Convolutional Architecture for Fast Feature Embedding。是一种常用的深度学习框架,主要应用在视频、图像处理方面的应用上。caffe是一个清晰,可读性高,快速的深度学习框架。作者是贾扬清,加州大学伯克利的ph.D,现就职于F ...
分类:
其他好文 时间:
2018-06-30 14:43:08
阅读次数:
222
2013年,Google开源了一款用于词向量计算的工具——word2vec,引起了工业界和学术界的关注。首先,word2vec可以在百万数量级的词典和上亿的数据集上进行高效地训练;其次,该工具得到的训练结果——词向量(word embedding),可以很好地度量词与词之间的相似性。随着深度学习(D ...
分类:
其他好文 时间:
2018-06-28 19:55:57
阅读次数:
664
tensorflow 的dynamic_rnn方法,我们用一个小例子来说明其用法,假设你的RNN的输入input是[2,20,128],其中2是batch_size,20是文本最大长度,128是embedding_size,可以看出,有两个example,我们假设第二个文本长度只有13,剩下的7个是 ...
分类:
其他好文 时间:
2018-06-26 10:55:13
阅读次数:
140