Keras解释:输入层中的节点数

时间:2018-05-17 15:13:08

标签: neural-network keras

我正在尝试理解简单的 Perceptron 与使用keras Sequence 类时获得的神经网络之间的关系。

我了解到神经网络感知器看起来像这样:

enter image description here

第一层中的每个“节点”是样本x_1,x_2,...,x_n

的特征之一

有人可以解释我在下面的Keras包中找到的神经网络的跳转吗? 由于输入层有四个节点,这是否意味着网络由四个感知器网络组成? enter image description here

1 个答案:

答案 0 :(得分:1)

似乎对感知器的含义存在误解。感知器是一个单独的单元,它将输入与权重相乘,将它们相加并应用激活函数: Perceptron

现在,您所拥有的图表被称为多层感知器(MLP),它由一组层组的感知器组成,wiki。在Keras中,没有明确的感知器概念,而是一层感知器被实现为Dense层,因为层是密集连接的,即每个输出都连接到层之间的每个输入。第二个图对应于:

model = Sequential()
model.add(Dense(4, activation='sigmoid', input_dim=3))
model.add(Dense(4, activation='sigmoid'))
model.add(Dense(1, activation='sigmoid'))

假设你有sigmoid激活。在这种情况下,通过指定input_dim=3隐式输入图层,最后一层将是输出图层。