DecisionTreeRegressor中的random_state是什么?

时间:2015-10-31 18:12:07

标签: python machine-learning scikit-learn

有什么区别: DecisionTreeRegressor(splitter ='random')和DecisionTreeRegressor(splitter ='best')

如果两者似乎都抛出随机预测,我不明白为什么两个实现都使用参数random_state

以下是一个例子:

import pandas as pd
from sklearn.tree import DecisionTreeRegressor

url = 'https://raw.githubusercontent.com/justmarkham/DAT8/master/data/vehicles_train.csv'
train = pd.read_csv(url)

train['vtype'] = train.vtype.map({'car':0, 'truck':1})
feature_cols = ['year', 'miles', 'doors', 'vtype']
X = train[feature_cols]
y = train.price

treereg = DecisionTreeRegressor(splitter='best')

for i in range(1, 10):
    treereg.fit(X, y)
    print treereg.predict([1994, 10000, 2, 1])

谢谢!

1 个答案:

答案 0 :(得分:1)

我无法肯定地回答这个问题,但这是我怀疑发生的事情:

即使对于splitter="best",决策树中使用的算法也会以随机顺序探索功能(如您所见in the source)。如果未定义max_features应该探索所有功能,从而无论随机状态如何都会找到相同的最佳分割,只要有唯一最佳分裂。

我怀疑,对于您提供的数据,在某些时候,根据指定的标准,有两种可能的分割同样好,因此算法会选择它首先看到的分割。