Keras自定义softmax层:是否可以基于零作为输入层中的数据在softmax层的输出中将输出神经元设置为0?

时间:2018-12-19 12:20:58

标签: python machine-learning keras neural-network softmax

我有一个神经网络,使用softmax激活在最后一层具有10个输出神经元。我也完全知道,基于输入值,输出层中的某些神经元应具有0值。因此,我有一个特殊的输入层,其中包含10个神经元,每个神经元为0或1。

以某种方式强迫我们说输出神经元为no。如果输入的第3个神经元也为0,则3的值为0?

action_input = Input(shape=(10,), name='action_input')
...

x = Dense(10,  kernel_initializer = RandomNormal(),bias_initializer = RandomNormal() )(x)
x = Activation('softmax')(x)

我知道有一种方法可以掩盖神经网络外输出层的结果,并重塑所有非零相关输出(总和为1)。但是我想在网络中解决这个问题,并在网络训练中使用它。我应该为此使用自定义图层吗?

2 个答案:

答案 0 :(得分:0)

您可以使用Lambda层和K.switch来检查输入中的零值并在输出中屏蔽它们:

from keras import backend as K

inp = Input((5,))
soft_out = Dense(5, activation='softmax')(inp)
out = Lambda(lambda x: K.switch(x[0], x[1], K.zeros_like(x[1])))([inp, soft_out])

model = Model(inp, out)

model.predict(np.array([[0, 3, 0, 2, 0]]))
# array([[0., 0.35963967, 0., 0.47805876, 0.]], dtype=float32)

但是,您可以看到输出的总和不再是一个。如果希望总和为1,则可以重新缩放值:

def mask_output(x):
    inp, soft_out = x
    y = K.switch(inp, soft_out, K.zeros_like(inp))
    y /= K.sum(y, axis=-1)
    return y

# ...
out = Lambda(mask_output)([inp, soft_out])

答案 1 :(得分:0)

最后,我想到了以下代码:

from keras import backend as K
import tensorflow as tf
def mask_output2(x):
    inp, soft_out = x
    # add a very small value in order to avoid having 0 everywhere
    c = K.constant(0.0000001, dtype='float32', shape=(32, 13))
    y = soft_out + c

    y = Lambda(lambda x: K.switch(K.equal(x[0],0), x[1], K.zeros_like(x[1])))([inp, soft_out])
    y_sum =  K.sum(y, axis=-1)

    y_sum_corrected = Lambda(lambda x: K.switch(K.equal(x[0],0), K.ones_like(x[0]), x[0] ))([y_sum])

    y_sum_corrected = tf.divide(1,y_sum_corrected)

    y = tf.einsum('ij,i->ij', y, y_sum_corrected)
    return y