单层LSTM模型的流程图(在多层情况下,将前面层的每个h输出状态用作当前层的流输入即可) :
你不用担心这里的细节。 我们一步一步地分析LSTM的分析图。 现在,让我们详细了解一下图中使用的各种元素的图标
其中记忆状态ct又称细胞状态cell_state
非显示状态ht
在这个过程中,一个是记忆状态:
同样,对应中间输出状态为Ht
接下来,我将介绍与tf.keras.layers.LSTM的关系。
1、go_backwards参数确定输入的序列是按顺序输入lstm还是按相反顺序输入lstm,如果子参数分别为双向lstm 2、return_sequences=true,则返回
return_sequences=True返回最后时间步骤的隐藏状态和细胞状态,即ht,ct
4、recurrent_activation是对三种门机制(遗忘门、输入门、输出门)的激活函数,activation是输入信息(默认tanh )和当前隐藏状态输出(默认tanh )
use_bias参数对应于在所有需要sigmod或tanh变换之前实际进行的线性变换。 此处的bias指示在进行线性变换时是否需要使用偏置,默认情况下使用
6、dropout参数recurrent_dropout参数说明。 如下图所示,dropout是与当前时刻xt对应的参数dropout; recurrent_dropout是dropout最后一个隐式输入参数。 也可以理解为
第一个dropout是x和隐藏之间的dropout
第二个是隐藏-隐藏之间的dropout
7、stateful表示最后的状态是否为下一个批量输入的初始化状态
最后添加双向lstm模型结构。
文本分类(1)|)6)多层双向LSTM_sdu_hao博客-CSDN博客_多层双向lstm
在Keras上使用LSTM的几个混淆点_qm5132博客-使用-CSDN博客_keras lstm
LTM这就足够了_yingqubaifumei博客-CSDN博客_csdn lstm