scipy.optimize.leastsq返回最佳猜测参数,而不是新的最佳拟合

时间:2012-09-18 08:46:33

标签: python scipy data-fitting

我想将lorentzian峰值拟合到一组数据x和y,数据很好。像OriginLab这样的其他程序非常适合它,但是我想自动使用python进行拟合,所以我有下面的代码基于http://mesa.ac.nz/?page_id=1800

我遇到的问题是scipy.optimize.leastsq返回最适合我传递给它的相同初始猜测参数,基本上什么都不做。这是代码。

#x, y are the arrays with the x,y  axes respectively
#defining funcitons
def lorentzian(x,p):
  return p[2]*(p[0]**2)/(( x - (p[1]) )**2 + p[0]**2)

def residuals(p,y,x):
  err = y - lorentzian(x,p)
  return err      

p = [0.055, wv[midIdx], y[midIdx-minIdx]]   
pbest = leastsq(residuals, p, args=(y, x), full_output=1)
best_parameters = pbest[0]
print p
print pbest

p是初始猜测,best_parameters是来自leastsq的返回“最佳拟合”参数,但它们始终是相同的。

这是full_output = 1返回的内容(长数字数组已被缩短但仍然具有代表性)

    [0.055, 855.50732, 1327.0]
    (array([  5.50000000e-02,   8.55507324e+02,   1.32700000e+03]), 
    None, {'qtf':array([ 62.05192947,  69.98033905,  57.90628052]), 
    'nfev': 4, 
    'fjac': array([[-0.,  0.,  0., 0.,  0.,  0.,  0.,],
    [ 0., -0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,
    0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,
    0.,  0.],
    [ 0.,  0., -0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,
    0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,
    0.,  0.]]), 
    'fvec': array([  62.05192947,   69.98033905,   
    53.41218567,   45.49879837,   49.58242035,   36.66483688,
    34.74443436,   50.82238007,   34.89669037]), 
    'ipvt': array([1, 2, 3])},  
    'The cosine of the angle between func(x) and any column of the\n  Jacobian 
    is at most 0.000000 in absolute value', 4)

任何人都可以看到错误吗?

1 个答案:

答案 0 :(得分:5)

快速谷歌搜索暗示数据是单精度的问题(你的其他程序几乎肯定会升级到双精度,虽然这显然也是scipy的问题,另请参阅此bug report)。如果您查看full_output=1结果,您会看到Jacobian在任何地方都近似为零。 因此,明确地给予雅可比行星可能会有所帮助(尽管即使这样你也可能想要向上转换,因为单精度可以得到的相对误差的最小精度非常有限)。

解决方案:最简单,数值最多的解决方案(当然,给予真正的雅可比行列式也是一种奖励)就是将xy数据转换为双精度(例如x = x.astype(np.float64)将会这样做。)

我不建议这样做,但您也可以通过手工设置epsfcn关键字参数(以及可能的公差关键字参数)来修复它,epsfcn=np.finfo(np.float32).eps。这似乎在某种程度上解决了这个问题,但是(因为大多数计算都是使用标量,并且标量不会强制计算中的向上),计算在float32中完成,精度损失似乎相当大,至少在没有提供Dfunc。