Keras TimeDistributed密集丢弃矢量维度1

时间:2017-05-24 13:06:48

标签: keras lstm

我无法弄清楚在下面的TimeDistributed Dense步骤中张量维数是如何减少1的

model = Sequential()
model.add(Embedding(vocab_size +1, 128, input_length=unravel_len))  # embedding shape: (99, 15, 128)
model.add(Bidirectional(LSTM(64, return_sequences=True)))   # (99, 15, 128)
model.add(Dropout(0.5))
model.add(TimeDistributed(Dense(categories, activation='softmax')))    # (99, 15, 127)

我在每一步都标记了张量形状。您可以看到最后一个维度从128减少到127.有人可以解释为什么会这样。感谢

0 个答案:

没有答案
相关问题