交叉验证和随机森林

时间:2014-03-12 08:47:47

标签: machine-learning random-forest cross-validation

我使用随机森林来预测数据集中的标签。我的问题是:使用随机森林进行10倍交叉验证是否有意义?直观地说,我可以说随机森林自己进行交叉验证 - 那么在每次拆分中进行交叉验证和构建随机森林分类器会有什么好处吗?

1 个答案:

答案 0 :(得分:4)

实际上,您进行交叉验证以断言模型的选择(例如,将两个RF与不同的k进行比较)。这与RF在学习学习集中学习不同树木方面所做的事情并不完全相同。

实际上,当你的训练集很小而你无法将其分成训练/验证时,你只能做k倍的CV。

如果你的数据集很小,用kf-CV断言它是一件好事,但是我只是通过一个单独的验证集调整我的参数(以避免过度拟合,获得更好的准确性)(类似于20%)你的LS)