支持向量回归如何工作?

时间:2018-08-26 08:40:44

标签: machine-learning regression

我正在尝试了解SVR模型。
为此,我查看了SVM,这对我来说很清楚。但是关于SVR并没有太多的说明。 第一个问题是为什么将其称为支持向量回归,或者我们如何使用vectors来预测数值?
另外,我还不了解某些参数,例如epsilongamma。它们如何影响预测结果?

1 个答案:

答案 0 :(得分:2)

SVM从您的特征中学习一个所谓的决策函数,这样,正类中的特征会产生正实数,而负类中的特征会产生负数(至少在大多数情况下) ,具体取决于您的数据)。

对于两个功能,您可以在2D平面中将其可视化。该函数为平面中的每个点分配一个实数值,该值可以表示为颜色。 This plot将值显示为不同的蓝色。

导致零的特征值形成了所谓的决策边界

此函数本身有两种参数:

  • 内核从属参数。对于径向基函数,这些参数是epsilongamma,它们是在学习之前设置的。
  • 以及在学习过程中确定的所谓支持向量。 支持向量只是决策功能的参数

学习无非是确定良好的支持向量(参数!)。

在此2d example video中,颜色不显示实际的功能值,而仅显示符号。您可以看到gamma如何影响决策函数的平滑度。

要回答您的问题:

SVR构建了这样的功能,但目标不同。该功能不会尝试将阳性结果分配给您的阳性示例,而将阴性结果分配给这些阴性示例。

该函数的构建是为了近似给定的数字结果。

相关问题