如何在LSTM模型中解释权重?

时间:2018-08-21 22:10:49

标签: r keras lstm

我目前正在尝试自己进行LSTM模型的权重初始化。该模型是这样的:

  model <- keras_model_sequential()%>%
    layer_lstm(units = 120, input_shape = c(1,120),
               return_sequences = T, stateful = T, batch_size = batchsize) %>%
    layer_lstm(units = 120, 
               return_sequences = T, stateful = T) %>%
    layer_dense(units = 120)

我得到了该模型的权重,以检查训练后权重的格式。权重采用矩阵列表的格式,例如: enter image description here

我对重量的顺序很困惑。哪个矩阵用于隐藏神经,哪个矩阵用于递归神经?输入门,输出门和忘记门使用什么权重?

How to interpret weights in a LSTM layer in Keras

这解释了Keras中LSTM层中的权重,但它解释了Python中的权重。

还有一个问题,如果权重矩阵是这样的:

1 2 3 
4 5 6
3 1 2

第一层的神经名称为1,2,3,第二层的神经名称为4,5,6,结构如下:

Neural_1 Neural_2 Neural_3 
Neural_4 Neural_5 Neural_6

这是否表示权重的顺序?

W14 W15 W16 
W24 W25 W26
W34 W35 W36

0 个答案:

没有答案