在GridSearchCV

时间:2018-01-22 21:32:58

标签: python scikit-learn grid-search

我对sklearn GridSearchCVcv参数有疑问。

我正在处理具有时间组件的数据,所以我认为KFold交叉验证中的随机改组似乎不合理。

相反,我想在GridSearchCV内明确指定训练,验证和测试数据的截止值。我可以这样做吗?

为了更好地阐明这个问题,我将采用手动方式。

import numpy as np
import pandas as pd
from sklearn.linear_model import Ridge
np.random.seed(444)

index = pd.date_range('2014', periods=60, freq='M')
X, y = make_regression(n_samples=60, n_features=3, random_state=444, noise=90.)
X = pd.DataFrame(X, index=index, columns=list('abc'))
y = pd.Series(y, index=index, name='y')

# Train on the first 30 samples, validate on the next 10, test on
#     the final 10.
X_train, X_val, X_test = np.array_split(X, [35, 50])
y_train, y_val, y_test = np.array_split(y, [35, 50])

param_grid = {'alpha': np.linspace(0, 1, 11)}
model = None
best_param_ = None
best_score_ = -np.inf

# Manual implementation
for alpha in param_grid['alpha']:
    ridge = Ridge(random_state=444, alpha=alpha).fit(X_train, y_train)
    score = ridge.score(X_val, y_val)
    if score > best_score_:
        best_score_ = score
        best_param_ = alpha
        model = ridge

print('Optimal alpha parameter: {:0.2f}'.format(best_param_))
print('Best score (on validation data): {:0.2f}'.format(best_score_))
print('Test set score: {:.2f}'.format(model.score(X_test, y_test)))
# Optimal alpha parameter: 1.00
# Best score (on validation data): 0.64
# Test set score: 0.22

这里的过程是:

  • 对于X和Y,我想要一套训练集,验证集和测试集。训练集是时间序列中的前35个样本。验证集是接下来的15个样本。测试集是最后的10。
  • 列车和验证集用于确定岭回归中的最佳alpha参数。在这里,我测试alpha的(0.0,0.1,...,0.9,1.0)。
  • 测试集被保留用于“实际”测试,作为看不见的数据。

无论如何......看起来我正在寻找这样的事情,但我不确定在这里传递给cv

from sklearn.model_selection import GridSearchCV
grid_search = GridSearchCV(Ridge(random_state=444), param_grid, cv= ???)
grid_search.fit(...?)

我无法解释的文档指定:

  

cv:int,交叉验证生成器或可迭代的可选

     

确定交叉验证拆分策略。可能的输入   对于简历是:

     
      
  • 无,使用默认的3倍交叉验证,
  •   
  • 整数,用于指定(分层)KFold中的折叠数,
  •   
  • 要用作交叉验证生成器的对象。
  •   
  • 可迭代的屈服列车,测试分裂。
  •   
     

对于整数/无输入,如果估算器是分类器,y是   无论是二元还是多类,都使用了StratifiedKFold。在所有其他   案例,使用KFold。

4 个答案:

答案 0 :(得分:5)

正如@MaxU所说,最好让GridSearchCV处理分割,但是如果你想按照你在问题中设置的那样强制执行分割,那么你可以使用PredefinedSplit这样做。

因此,您需要对代码进行以下更改。

# Here X_test, y_test is the untouched data
# Validation data (X_val, y_val) is currently inside X_train, which will be split using PredefinedSplit inside GridSearchCV
X_train, X_test = np.array_split(X, [50])
y_train, y_test = np.array_split(y, [50])


# The indices which have the value -1 will be kept in train.
train_indices = np.full((35,), -1, dtype=int)

# The indices which have zero or positive values, will be kept in test
test_indices = np.full((15,), 0, dtype=int)
test_fold = np.append(train_indices, test_indices)

print(test_fold)
# OUTPUT: 
array([-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1,
       -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1,
       -1,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0])

from sklearn.model_selection import PredefinedSplit
ps = PredefinedSplit(test_fold)

# Check how many splits will be done, based on test_fold
ps.get_n_splits()
# OUTPUT: 1

for train_index, test_index in ps.split():
    print("TRAIN:", train_index, "TEST:", test_index)

# OUTPUT: 
('TRAIN:', array([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14, 15, 16,
   17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33,
   34]), 
 'TEST:', array([35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49]))


# And now, send this `ps` to cv param in GridSearchCV
from sklearn.model_selection import GridSearchCV
grid_search = GridSearchCV(Ridge(random_state=444), param_grid, cv=ps)

# Here, send the X_train and y_train
grid_search.fit(X_train, y_train)

发送到fit()的X_train,y_train将使用我们定义的分割进行分割为训练和测试(在你的情况下为val),因此,将对来自索引[0:35]的原始数据进行训练。并在[35:50]进行测试。

希望这能清除工作。

答案 1 :(得分:3)

您是否尝试过TimeSeriesSplit

这是明确的。

tscv = TimeSeriesSplit(n_splits=3)
grid_search = GridSearchCV(clf, param_grid, cv=tscv.split(X))

答案 2 :(得分:1)

在时间序列数据中,Kfold不是正确的方法,因为kfold cv会洗牌数据,并且您将丢失序列中的模式。这是一种方法

import xgboost as xgb
from sklearn.model_selection import TimeSeriesSplit, GridSearchCV
import numpy as np
X = np.array([[4, 5, 6, 1, 0, 2], [3.1, 3.5, 1.0, 2.1, 8.3, 1.1]]).T
y = np.array([1, 6, 7, 1, 2, 3])
tscv = TimeSeriesSplit(n_splits=2)

model = xgb.XGBRegressor()
param_search = {'max_depth' : [3, 5]}

my_cv = TimeSeriesSplit(n_splits=2).split(X)
gsearch = GridSearchCV(estimator=model, cv=my_cv,
                        param_grid=param_search)
gsearch.fit(X, y)

参考-How do I use a TimeSeriesSplit with a GridSearchCV object to tune a model in scikit-learn?

答案 3 :(得分:-1)

我认为最简单的方法是使用cv的整数 - 参数:

grid_search = GridSearchCV(Ridge(random_state=444), param_grid, cv=5)

除此之外,当您使用GridSearchCV时,您不希望将数据拆分为培训和测试数据集 - GridSearchCV会自动为您执行此操作:

grid_search.fit(X_all_data, y_all_data)

这将使用(Stratified)KFold方法将您的数据拆分为训练和测试集5次,并选择param_grid字典中指定的最佳参数。

您可能还想使用GroupShuffleSplitspecify groups in order to respect groups by splitting