cntk线性激活功能在层?

时间:2017-01-24 20:13:51

标签: python cntk

在CNTK中,它有relu,hardmax,softmax,sigmoid等所有好东西,但我正在建立一个基于回归的算法,最后一层需要预测2个或更多的回归输出。所以我需要n个节点,激活只是磨机线性激活的运行。我看到我可以将激活设置为None,这实际上是正确的吗?

with cntk.layers.default_options(activation=cntk.ops.relu, pad=True):
    z = cntk.models.Sequential([
        cntk.models.LayerStack(2, lambda : [
            cntk.layers.Convolution((3,3), 64),
            cntk.layers.Convolution((3,3), 64),
            cntk.layers.MaxPooling((3,3), (2,2))
        ]), 
        cntk.models.LayerStack(2, lambda i: [
            cntk.layers.Dense([256,128][i]), 
            cntk.layers.Dropout(0.5)
        ]), 
        cntk.layers.Dense(4, activation=None)
    ])(feature_var)

1 个答案:

答案 0 :(得分:3)

是。那是正确的。您可以查看图层库代码here