Scipy优化算法? (用于最小化神经网络成本函数) - python

时间:2012-07-06 22:28:41

标签: python scipy neural-network

我在python中编写了一个具有成本函数的神经网络对象,并通过反向传播确定其渐变。我看到了一堆优化函数here,但我不知道如何实现它们。我也很难找到任何可以学习的示例代码。

显然,我需要以某种方式告诉它我正在尝试更改哪些参数,我正在尝试最小化的成本函数,然后是由backprop计算的渐变。我怎么告诉fmin_cg什么是什么?

红利问题:我在哪里可以了解各种算法的使用差异?

=====好的,更新=====

这就是我的主题:

def train(self, x, y_vals, iters = 400):
    t0 = concatenate((self.hid_t.reshape(-1), self.out_t.reshape(-1)), 1)
    self.forward_prop(x, t0)

    c = lambda v: self.cost(x, y_vals, v)
    g = lambda v: self.back_prop(y_vals, v)

    t_best = fmin_cg(c, t0, g, disp=True, maxiter=iters)
    self.hid_t = reshape(t_best[:,:(hid_n * (in_n+1))], (hid_n, in_n+1))
    self.out_t = reshape(t_best[:,(hid_n * (in_n+1)):], (out_n, hid_n+1))

而且,这是它抛出的错误:

Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "netset.py", line 27, in <module>
    net.train(x,y)
  File "neuralnet.py", line 60, in train
    t_best = fmin_cg(c, t0, g, disp=True, maxiter=iters)
  File "/usr/local/lib/python2.7/dist-packages/scipy/optimize/optimize.py", line 952, in fmin_cg
    res = _minimize_cg(f, x0, args, fprime, callback=callback, **opts)
  File "/usr/local/lib/python2.7/dist-packages/scipy/optimize/optimize.py", line 1017, in _minimize_cg
    deltak = numpy.dot(gfk, gfk)
ValueError: matrices are not aligned

... HALP!

2 个答案:

答案 0 :(得分:1)

我从未使用过fmin_cg。我猜v是你的体重矢量。当我阅读documentation时,我的代码中没有发现错误。但是我搜索了你的错误,我发现了这个:matrices are not aligned Error: Python SciPy fmin_bfgs

此外,我认为g(v)始终是在c(v)之后计算的。因此,您的反向传播函数应该再次向前传播x:

c = lambda v: self.cost(x, y_vals, v)
g = lambda v: self.cost(x, y_vals, v); self.back_prop(y_vals, v)
#             ------------------------

或者您可以将一个返回成本函数的函数和渐变作为元组传递,以避免两个向前传播,如Issam Laradji所述。

关于人工神经网络优化算法的好文章是:

我可以推荐Levenberg-Marquardt。这种算法非常有效。不幸的是,每个迭代步骤都具有立方复杂度O(n ^ 3)。

答案 1 :(得分:0)

仅解决奖金问题:Coursera有一个关于机器学习的优秀课程,我要检查它是否仍然存在,如果是,请仔细阅读关键概念以获得感觉机器学习的每一个实现(如果这是有道理的)然后从那里更深入。