了解网络中扩展的LSTM单元的连接

时间:2019-01-28 15:25:14

标签: lstm recurrent-neural-network

我已经阅读了Learning to Forget: Continual Prediction with LSTM,但是我对本文中的三层LSTM拓扑结构并不清楚(图6)。 Figure 6 in the article

在我看来:

  1. 每个存储块中的单元1与单元2的值具有相同的输出门,忘记门和入门输出值。
  2. 存储块1中的门接收单元的输出值 在存储块2中的图1中,存储块2中的门接收 存储块3中单元1的输出值和存储块3的形式相同。

这些意见正确吗?谁能用lstm单元介绍其他拓扑,将其用于与时间序列有关的预测问题?

非常感谢您!

0 个答案:

没有答案