神经网络的架构

时间:2017-02-04 17:02:14

标签: neural-network sigmoid

我正在阅读一篇论文,作者描述了他们的网络如下:

"训练相应的深层网络,一个完全连接的网络 使用隐藏层。网络有九个二进制输入节点。隐藏层包含一个sigmoid节点,在输出层中有一个内部产品 功能。因此,网络有10个变量。"

网络用于预测连续数字(y)。我的问题是,我不理解sigmoid节点之后的网络结构。输出层有什么作用?什么是内在产品?

1 个答案:

答案 0 :(得分:0)

通常,每个神经元的预激活功能是内积(或矢量 - 矢量乘法中的点积)和引入偏差的一个加法的组合。单个神经元可以描述为

z = b + w1*x1 + x2*x2 + ... + xn*xn
  = b + w'*x
h = activation(z)

其中b是一个加法项(神经元的偏差),每个h是一层的输出,对应于下一层的输入。在“输出层”的情况下,它是y = h。一个层也可能由多个神经元组成,或者 - 在您的示例中 - 仅包含单个神经元。

在所描述的情况下,似乎没有使用偏见。我理解如下:

对于每个输入神经元x1x9,使用单个权重,这里没什么特别的。由于有9个输入,因此产生9个权重,结果如下:

hidden_out = sigmoid(w1*x1 + w2*x2 + ... + w9*x9)

为了将隐藏层连接到输出,应用相同的规则:对输出图层的输入进行加权,然后对所有输入求和。由于只有一个输入,因此只有一个权重被“求和”,这样

output = w10*hidden_out

请记住,sigmoid函数会将其输入压缩到0..1的输出范围,因此将其乘以权重会将其重新调整为所需的输出范围。