码迷,mamicode.com
首页 > 其他好文 > 详细

deep_learning_Function_LSTM_dynamic_rnn

时间:2019-10-08 14:26:40      阅读:89      评论:0      收藏:0      [点我收藏+]

标签:dynamic   cell   seq   tmc   mem   net   href   tps   targe   

一、 tf.nn.dynamic_rnn的输出

tf.nn.dynamic_rnn的输入参数如下

tf.nn.dynamic_rnn(
    cell,
    inputs,
    sequence_length=None,
    initial_state=None,
    dtype=None,
    parallel_iterations=None,
    swap_memory=False,
    time_major=False,
    scope=None
)
 

 tf.nn.dynamic_rnn的返回值有两个:outputs和state

为了描述输出的形状,先介绍几个变量,batch_size是输入的这批数据的数量,max_time就是这批数据中序列的最长长度,如果输入的三个句子,那max_time对应的就是最长句子的单词数量,cell.output_size其实就是rnn cell中神经元的个数。

outputs. outputs是一个tensor
如果time_major==True,outputs形状为 [max_time, batch_size, cell.output_size ](要求rnn输入与rnn输出形状保持一致)
如果time_major==False(默认),outputs形状为 [ batch_size, max_time, cell.output_size ]
state. state是一个tensor。state是最终的状态,也就是序列中最后一个cell输出的状态。一般情况下state的形状为 [batch_size, cell.output_size ],但当输入的cell为BasicLSTMCell时,state的形状为[2,batch_size, cell.output_size ],其中2也对应着LSTM中的cell state和hidden state
————————————————
原文链接:https://blog.csdn.net/u010960155/article/details/81707498

deep_learning_Function_LSTM_dynamic_rnn

标签:dynamic   cell   seq   tmc   mem   net   href   tps   targe   

原文地址:https://www.cnblogs.com/0405mxh/p/11634837.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!