神经网络:输入层是否由神经元组成?

时间:2015-02-02 23:03:04

标签: machine-learning neural-network

我目前正在研究神经网络理论,我发现它写的所有地方都包含以下几层:

  • 输入图层
  • 隐藏层
  • 输出图层

我看到一些图形描述将输入图层显示为网络中的真实节点,而其他图形描述则将此图层显示为值的向量 [x1,x2,... xn]

正确的结构是什么?

"输入层"一层真正的神经元?或者这只是抽象地命名为图层,而它实际上只是输入向量?

添加我在网络上发现的矛盾和令人困惑的照片:

这里看起来输入层由神经元组成: Screenshot

这里看起来输入图层只是一个输入向量: Screenshot

2 个答案:

答案 0 :(得分:3)

  

"输入层"一层真正的神经元?或者这只是抽象地命名为图层,而它实际上只是输入向量?

是的,它是两者 - 取决于抽象。在纸面上,网络具有输入神经元。在实现级别,你必须组织这些数据(通常使用数组/向量),这就是你说输入向量的原因:

输入向量保存输入神经元值(表示输入层)。

如果您熟悉图论或图像处理的基础知识 - 它的原理相同。例如,您可以将图像称为矩阵(技术视图)或像素字段(更抽象的视图)。

答案 1 :(得分:2)

让我用一些数学符号来回答你的问题,这些符号会比随机图像更容易理解。首先,请记住Perceptron。

Perceptron的任务是找到一个决策函数,将给定集合中的某些点分类为n个类。所以,对于一个函数

f : R^n -> R , f(X) = <W, X> + b

其中W是权重向量,X是点向量。例如,如果您有一个由等式3x + y = 0定义的行,则W为(3,1),X为(x,y)

神经网络可以被认为是一个图形,其中图形的每个顶点都是一个简单的感知器 - 也就是说,网络中的每个节点都只是一个接收某个值并输出一个新值的函数,然后用于下一个节点。在第二张图片中,这将是两个隐藏的图层。

这些节点需要什么作为输入?一组W和Xs - 重量和点向量。您的图片中的哪一个由x0, x1, .. xnw0, w1, .. wn表示。

最终,我们可以得出结论,神经网络需要运作的是一组权重和点的输入向量。

我对你的总体建议是为你的学习选择一个来源并坚持下去,而不是通过互联网上的图像冲突。

相关问题