Keras:CNN + LSTM的实现问题,具有各种输入大小的TimeDistributed层

时间:2017-12-20 11:56:57

标签: keras lstm

我使用Keras实现了CNN + LSTM自动编码器。代码类似于:

......
x = self._conv_bn_relu(filters=64, kernel_size=(3,3))(x)
x = MaxPooling2D((2, 2), padding='same')(x)  # 16x16
# branches (LSTM-vertical)
x = TimeDistributed(Bidirectional(LSTM(32, input_shape=(4, 64), return_sequences=True)))(x)
x = self._conv_bn_relu(filters=64, kernel_size=(3,3))(x)
x = UpSampling2D((2, 2))(x) # 32x32
......

对于此设置,网络只能接受固定大小的输入,如(64x64),但我真的希望我的网络可以接受各种输入大小。有没有办法做到这一点?

谢谢, X.P

0 个答案:

没有答案