输入上的共享辍学层

时间:2019-02-06 23:48:26

标签: keras dropout

我想对两个形状相同的输入张量应用相同的压降。一种方法是加入输入,应用滤除,然后再次分割张量。这样,每次迭代中的每个输入都会删除相同的功能。

代码似乎可以正常工作,并且模型正在训练中。谁能确认我的所作所为正在做什么?我不知道比较张量的方法,否则我只能将dropout更改为0并将输出与输入进行比较。

#input1 (10, 6) input2 (10,6)
input_list = [input1, input2]

#Join inputs and form (20x6) tensor
input_concat = keras.layers.concatenate(input_list, axis=1)
input_dropout = Dropout(0.5)(input_concat)
reshaped_input = keras.layers.Reshape((10, 6, 2))(input_dropout)

input_1 = keras.layers.Lambda(lambda x:x[:,:,:,0])(reshaped_input)
input_2 = keras.layers.Lambda(lambda x:x[:,:,:,1])(reshaped_input)

0 个答案:

没有答案