scikit学习GridSearchCV best_score_如何计算?

我一直在尝试计算GridSearchCV的best_score_参数是如何计算的(或者换句话说,这是什么意思)。该文件说:

剩余数据的best_estimator得分。

因此,我尝试将其转换为我理解的东西,并计算出每个kfold的实际“y”和预测的ys的r2_score-并得到了不同的结果(使用了这段代码):

test_pred = np.zeros(y.shape) * np.nan 

for train_ind, test_ind in kfold:

clf.best_estimator_.fit(X[train_ind, :], y[train_ind])

test_pred[test_ind] = clf.best_estimator_.predict(X[test_ind])

r2_test = r2_score(y, test_pred)

我到处搜索有关best_score_的更有意义的解释,但找不到任何东西。有人愿意解释吗?

谢谢

回答:

这是最佳估算器的平均交叉验证得分。让我们制作一些数据并修复交叉验证的数据划分。

>>> y = linspace(-5, 5, 200)

>>> X = (y + np.random.randn(200)).reshape(-1, 1)

>>> threefold = list(KFold(len(y)))

现在运行cross_val_scoreGridSearchCV,它们都具有这些固定的折痕。

>>> cross_val_score(LinearRegression(), X, y, cv=threefold)

array([-0.86060164, 0.2035956 , -0.81309259])

>>> gs = GridSearchCV(LinearRegression(), {}, cv=threefold, verbose=3).fit(X, y)

Fitting 3 folds for each of 1 candidates, totalling 3 fits

[CV] ................................................................

[CV] ...................................... , score=-0.860602 - 0.0s

[Parallel(n_jobs=1)]: Done 1 jobs | elapsed: 0.0s

[CV] ................................................................

[CV] ....................................... , score=0.203596 - 0.0s

[CV] ................................................................

[CV] ...................................... , score=-0.813093 - 0.0s

[Parallel(n_jobs=1)]: Done 3 out of 3 | elapsed: 0.0s finished

请注意score=-0.860602score=0.203596score=-0.813093GridSearchCV输出;

完全由返回的值cross_val_score

注意,“均值”实际上是褶皱的宏观平均值。该iid参数GridSearchCV可用于在样品上获得的微平均代替。

以上是 scikit学习GridSearchCV best_score_如何计算? 的全部内容, 来源链接: utcz.com/qa/418746.html

回到顶部