任务是地图里面导航,让agent从起始点到达指定位置。 用了supervised learning + reinforcement learning + lstm 用supervised learning当做辅助训练,加速rl训练,用lstm当做memory。 ...
分类:
其他好文 时间:
2018-03-12 16:52:09
阅读次数:
119
Preface 说了好久要手撕一次lstm预测,结果上学期用bucket时遇到issue后就搁了下来,后面还被突然尴尬了几次(⊙﹏⊙)b。 好吧,我先把issue亮出来 "https://github.com/apache/incubator mxnet/issues/8663" ,然而并没有大神鸟 ...
分类:
其他好文 时间:
2018-03-11 22:29:20
阅读次数:
278
包装器Wrapper TimeDistributed包装器 keras.layers.wrappers.TimeDistributed(layer) 该包装器可以把一个层应用到输入的每一个时间步上 ...
分类:
移动开发 时间:
2018-03-10 21:56:27
阅读次数:
1705
本节来介绍一下使用 RNN 的 LSTM 来做 MNIST 分类的方法,RNN 相比 CNN 来说,速度可能会慢,但可以节省更多的内存空间。 初始化 首先我们可以先初始化一些变量,如学习率、节点单元数、RNN 层数等: learning_rate = 1e-3 num_units = 256 num ...
分类:
Web程序 时间:
2018-03-10 11:58:00
阅读次数:
253
. 全连层 每个神经元输入: 每个神经元输出: (通过一个激活函数) 2. RNN(Recurrent Neural Network) 与传统的神经网络不通,RNN与时间有关。 3. LSTM(Long Short-Term Memory 长短期记忆) ...
分类:
其他好文 时间:
2018-03-09 13:17:31
阅读次数:
191
语言模型 所谓的语言模型,即是指在得知前面的若干个单词的时候,下一个位置上出现的某个单词的概率。 最朴素的方法是N-gram语言模型,即当前位置只和前面N个位置的单词相关。如此,问题便是,N小了,语言模型的表达能力不够。N大了,遇到稀疏性问题,无法有效的表征上下文。 LSTM模型一般会将单词embe ...
分类:
Web程序 时间:
2018-02-19 22:23:00
阅读次数:
324
1. 导读 本节内容介绍普通RNN的弊端,从而引入各种变体RNN,主要讲述GRU与LSTM的工作原理。 2. 普通RNN的弊端 在NLP中,句子内部以及句子之间可能存在很长的依赖关系(long term dependecies),最前边的单词对句子后面的单词产生影响。但是普通RNN不擅长捕获这种长期 ...
分类:
其他好文 时间:
2018-02-19 15:16:50
阅读次数:
199
基于 Keras 用 LSTM 网络做时间序列预测 本文主要参考了 Jason Brownlee 的博文 "Time Series Prediction with LSTM Recurrent Neural Networks in Python with Keras" 原文使用 python 实现模 ...
分类:
其他好文 时间:
2018-02-17 13:10:10
阅读次数:
3565
#https://www.jianshu.com/p/9efae7a20493 原文此处有误: 用 Flatten 把卷出来的三维的层,抹平成二维的。 应为:Flatten层用来将输入“压平”,即把多维的输入一维化,常用在从卷积层到全连接层的过渡。Flatten不影响batch的大小。 ...
分类:
其他好文 时间:
2018-02-06 22:59:57
阅读次数:
203
关于LSTM及RNN的基础知识以及相关的数学推导这篇博客介绍的很好,其中还包括神经网络的其他基础内容。 RNN循环神经网络:https://www.zybuluo.com/hanbingtao/note/541458 LSTM长短时记忆网络:https://zybuluo.com/hanbingta ...
分类:
其他好文 时间:
2018-01-31 14:39:48
阅读次数:
274