如何有效地组合多个特征向量进行分类

时间:2017-09-22 06:32:28

标签: python classification svm xgboost adaboost

我有4个numpy数组(功能)。 numpy数组的维度是:

a1=(360,100)
a2=(360,100)
a3=(360,100)
a4=(360,13)

我有360(4个类,每个是90)音频文件。我从这些wav文件中获得了4个不同的功能(a1,... a4)。我尝试了这些功能(a1,... a4)分别训练svm并对音频进行分类。但有些结果并不好。现在我想结合这4个功能来获得更好的结果。但我不想连接这些矩阵。我只想确定这些特征的一些系数,并获得一个特征向量进行分类。 例如,

当我只使用a1功能时,性能是:

class1=%50, class2=%85, class3=%95, class4=%95

当我只使用a2功能时,性能是:

class1=%30, class2= %96, class3=%94, class4=%80

当我只使用a3功能时,性能为:

class1=%64, class2=%94, class3=%74, class4=%97

当我只使用a4功能时,性能为:

class1=%74, class2=%96, class3=%85, class4=%88

如何一起使用这4个功能来提高性能?我也连接了这些功能,但性能也不好。谢谢

1 个答案:

答案 0 :(得分:0)

你描述它的方式,它看起来很像boosting:你的4个分类器中的每一个都很弱(见this answer)而且提升的想法是将一堆弱学习者变为强者的。

可以从现有的分类器手动完成,例如using sci-kit。但我认为最简单的方法是使用XGBoost,它将在内部使用你的所有功能,为每个功能构建一个分类器,然后将它们提升为一个分类器:

from xgboost import XGBClassifier

model = XGBClassifier()
model.fit(train_x, train_y)
model.predict(test_x)