一文读懂循环神经网络中的BILSTM

一、普通RNN

先简单介绍一下一般的RNN。

其主要形式如下图所示(图片均来自台大李宏毅教授的PPT):
在这里插入图片描述
在这里插入图片描述
通过序列形式的输入,我们能够得到如下形式的RNN。
在这里插入图片描述

二、LSTM

长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的RNN,LSTM能够在更长的序列中有更好的表现。

LSTM结构(图右)和普通RNN的主要输入输出区别如下所示。
在这里插入图片描述

在这里插入图片描述

下面具体对LSTM的内部结构来进行剖析。
在这里插入图片描述
下面开始进一步介绍这四个状态在LSTM内部的使用。
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

三、BIMSTM

BiLSTM是Bi-directional Long Short-Term Memory的缩写,是由前向LSTM与后向LSTM组合而成。两者在自然语言处理任务中都常被用来建模上下文信息。

前向的LSTM与后向的LSTM结合成BiLSTM。比如,我们对“我爱中国”这句话进行编码,模型如图6所示。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

四、总结

以上,就是LSTM的内部结构。通过门控状态来控制传输状态,记住需要长时间记忆的,忘记不重要的信息;而不像普通的RNN那样只能够“呆萌”地仅有一种记忆叠加方式。对很多需要“长期记忆”的任务来说,尤其好用。

但也因为引入了很多内容,导致参数变多,也使得训练难度加大了很多。因此很多时候我们往往会使用效果和LSTM相当但参数更少的GRU来构建大训练量的模型。

转载至:https://zhuanlan.zhihu.com/p/32085405、https://www.jiqizhixin.com/articles/2018-10-24-13
https://blog.csdn.net/lgy54321/article/details/99936770