在Keras中将复发层与密集层合并

时间:2016-06-22 10:20:26

标签: python machine-learning tensorflow theano keras

我想建立一个神经网络,其中两个第一层是前馈,最后一层是循环的。 这是我的代码:

model = Sequential()
model.add(Dense(150, input_dim=23,init='normal',activation='relu'))
model.add(Dense(80,activation='relu',init='normal'))
model.add(SimpleRNN(2,init='normal')) 
adam =OP.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08)
model.compile(loss="mean_squared_error", optimizer="rmsprop")  

我收到此错误:

Exception: Input 0 is incompatible with layer simplernn_11: expected  ndim=3, found ndim=2.
model.compile(loss='mse', optimizer=adam)

2 个答案:

答案 0 :(得分:5)

在Keras中,RNN层期望输入为(nb_samples, time_steps, input_dim)是正确的。但是,如果要在Dense图层之后添加RNN图层,则在重新整形RNN图层的输入后仍可以执行此操作。重塑既可以用作第一层,也可以用作顺序模型中的中间层。示例如下:

重塑为顺序模型中的第一层

model = Sequential()
model.add(Reshape((3, 4), input_shape=(12,)))
# now: model.output_shape == (None, 3, 4)
# note: `None` is the batch dimension

重塑为顺序模型中的中间层

model.add(Reshape((6, 2)))
# now: model.output_shape == (None, 6, 2)

例如,如果您按以下方式更改代码,则不会出现错误。我检查了它并编译了模型而没有报告任何错误。您可以根据需要更改尺寸。

from keras.models import Sequential
from keras.layers import Dense, SimpleRNN, Reshape
from keras.optimizers import Adam

model = Sequential()
model.add(Dense(150, input_dim=23,init='normal',activation='relu'))
model.add(Dense(80,activation='relu',init='normal'))
model.add(Reshape((1, 80)))
model.add(SimpleRNN(2,init='normal')) 
adam = Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08)
model.compile(loss="mean_squared_error", optimizer="rmsprop")

答案 1 :(得分:2)

在Keras中,您不能在Dense图层之后放置Reccurrent图层,因为Dense图层将输出作为(nb_samples,output_dim)。但是,Recurrent层需要输入为(nb_samples,time_steps,input_dim)。因此,Dense层提供2-D输出,但Recurrent层需要3-D输入。但是,您可以执行相反的操作,即在Reurrent层之后放置Dense图层。

相关问题