前馈神经网络的完整性?

时间:2017-10-11 20:01:46

标签: machine-learning neural-network deep-learning computation-theory

我读到RNN是图灵完整但前馈神经网络(FFN)不是。但是基于通用逼近定理,FFN可以模拟给定足够节点的任何函数,并且我们也知道lambda教会微积分(基于无状态函数)等同于图灵机,为什么FFN不能通过模拟任意函数来完成图灵在教会微积分?

谢谢!

1 个答案:

答案 0 :(得分:2)

我认为你在这里做了一个不正确的假设,因此显而易见。 通用近似定理 指出具有包含有限数量神经元的单个隐藏层的前馈网络可以近似连续函数 紧凑子集 wiki)。图灵机定理包含更广泛的功能,包括离散功能。

据我所知,没有证据表明FFN已经或者没有图灵完成(很高兴在这里得到纠正)。虽然存在proof RNN正在图灵完备(如你所说)。