计算误差神经网络

时间:2014-01-23 05:47:09

标签: neural-network

最近我一直在为我的研究实施神经网络。在尝试设计神经网络的错误时,我对几件事感到困惑,因为我发现了几种计算均方误差的方法:

  1. 全局错误=西格玛((Tik-Yik)^ 2) 其中i =输出神经元的数量,k =训练数据的数量 RMS = sqrt(全局误差/ i + k)

  2. 全局错误=西格玛((Tik-Yik)^ 2) 其中i =输出神经元的数量,k =训练数据的数量 平均误差=西格玛((Tik-mean(Tik))^ 2) 其中i =输出神经元的数量,k = trainingdata的数量 RMS =全局错误/平均错误

  3. 我对这两个人感到困惑,有人可以向我解释哪一个是正确的吗?或者两者都是真的?

1 个答案:

答案 0 :(得分:0)

假设这些是您所指的等式:

http://i41.tinypic.com/spvyf7.png

如果是这样,RMS 1 值看起来像一个有效的RMS表达式,而RMS 2 只是一个小数表达式,而不是RMS表达式。

只是一件事:看起来您的RMS 1 也包含错误/拼写错误:sqrt()内容的分母应该只是“k”,而不是“i + k” ”。我认为你应该简单地除以训练集大小,而不是在那里包括神经元计数。

如果您还引用了这些方程式的参考文献,那将非常有用。