支持向量机

时间:2014-04-01 12:01:46

标签: optimization machine-learning classification svm

我今天在考试中遇到了这些问题。状态正确或错误并解释。

  1. 如果k 1 (。,。)和k 2 (。,。)是两个有效的核函数,那么如果h = k 1 - k 2 ,是h(。,。)一个有效的核函数吗?

  2. 标准软边距SVM用于对数据集进行分类。我们有一个固定的C参数。两个不同的算法A 1 和A 2 用于获得支持向量集{S: α i > 0}。称他们为S1和S2。在所有情况下S1 = S2吗?假设两种算法都使用相同的内核函数。

  3. 编辑:

    我猜是:

    1. 由于核函数需要是正半确定(PSD),两个核函数之间的差异不一定是PSD。因此错了。

    2. α i 在两种算法中可以不同,支持向量的数量也可以不同。因此再次失败。

1 个答案:

答案 0 :(得分:1)

A)常量0是内核,常量1也是内核。但是0-1 = -1不是PSD。

虚假的恕我直言。

B)假设2D数据,其中对于类1,x = 0,对于类2,x = 1,并且y是均匀随机的。来自每个类的任何向量都是与其他向量一样好的支持向量,产生相同的超平面。目测:

x1 | y1
   |
x2 | y2

哪个SVM更好,使用x1和y1作为支持向量,或使用x2和y2的SVM?