偏差项和系数的线性回归更新

时间:2017-12-12 18:18:28

标签: machine-learning linear-regression

在线性回归中,我们希望最小化成本函数(S)(即均方误差)

假设数据集只有一个特征和一个目标。

我们最初使用回归线为y =α+β* x,其中α是偏差,β是x的系数。

通过使用δS/δα= 0,δS/​​δβ= 0,我们可以直接导出α,β的公式为

β=(Σ(xi-x̅)*(yi-y̅))/(Σ(xi-x̅)^ 2)其中x̅,y̅是x,y的平均值

α=y̅-β*x̅

因为我们可以直接得到α,β的最佳拟合曲线,为什么我们需要通过迭代来学习α,β?

1 个答案:

答案 0 :(得分:1)

在只有一个(或几个)特征的简单线性回归上,您不需要迭代或梯度下降。您可以使用normal equation。但是,当您有许多功能时,这并不会缩放,因为找到大矩阵的逆矩阵是很昂贵的。在机器学习中,数百(甚至数千)个功能出现问题并不罕见。