码迷,mamicode.com
首页 > Web开发 > 详细

No training required: Exploring random encoders for sentence classification(解析)

时间:2019-09-26 10:04:19      阅读:159      评论:0      收藏:0      [点我收藏+]

标签:输入   训练   tms   log   http   required   img   mamicode   abs   

原文链接:https://arxiv.org/abs/1901.10444

发表在:ICLR 2019

--------------------------------------------------------------------------------------------------------------------------------------------------------------------

 介绍了3中sentence嵌入的结构(RANDOM SENTENCE ENCODERS),

  1. Bag of random embedding projections
  2. Random LSTMs
  3. Echo State Networks

思路:利用预训练的word embedding作为输入,然后句子的encoder不进行训练(i.e., 预先随机初始化),接着加一层线性层,利用logistic regression classifier即可。

 

 

BAG OF RANDOM EMBEDDING PROJECTIONS (BOREP)

随机初始化bag-of-embeddings的权重W,

技术图片

 

每个元素随机初始化,

 

 技术图片

 

我们可以得到句子的表示

 

 技术图片

 

 

 

 fpool 为pooling函数, 可以是max pooling 或者 mean pooling.  然后再接一个非线性函数,比如 Relu(h)=max(0, h).

 

RANDOM LSTMS

同样的,LSTM的权重矩阵随机初始化为,

技术图片

d为LSTM的hidden size. 所以可以得到句子的表示,

技术图片

 

 

ECHO STATE NETWORKS

 

ESN可以表示为下面的形式,

技术图片

 

这里,同样使用了双向的ESN,最后可以得到句子的表示,

技术图片

 直接看作者的结论

技术图片

 

No training required: Exploring random encoders for sentence classification(解析)

标签:输入   训练   tms   log   http   required   img   mamicode   abs   

原文地址:https://www.cnblogs.com/skykill/p/11582750.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!