scikit学习GridSearchCV best_score_如何计算?
我一直在尝试计算GridSearchCV的best_score_参数是如何计算的(或者换句话说,这是什么意思)。该文件说:
剩余数据的best_estimator得分。
因此,我尝试将其转换为我理解的东西,并计算出每个kfold的实际“y”和预测的ys的r2_score-并得到了不同的结果(使用了这段代码):
test_pred = np.zeros(y.shape) * np.nan for train_ind, test_ind in kfold:
clf.best_estimator_.fit(X[train_ind, :], y[train_ind])
test_pred[test_ind] = clf.best_estimator_.predict(X[test_ind])
r2_test = r2_score(y, test_pred)
我到处搜索有关best_score_的更有意义的解释,但找不到任何东西。有人愿意解释吗?
谢谢
回答:
这是最佳估算器的平均交叉验证得分。让我们制作一些数据并修复交叉验证的数据划分。
>>> y = linspace(-5, 5, 200)>>> X = (y + np.random.randn(200)).reshape(-1, 1)
>>> threefold = list(KFold(len(y)))
现在运行cross_val_score
和GridSearchCV
,它们都具有这些固定的折痕。
>>> cross_val_score(LinearRegression(), X, y, cv=threefold)array([-0.86060164, 0.2035956 , -0.81309259])
>>> gs = GridSearchCV(LinearRegression(), {}, cv=threefold, verbose=3).fit(X, y)
Fitting 3 folds for each of 1 candidates, totalling 3 fits
[CV] ................................................................
[CV] ...................................... , score=-0.860602 - 0.0s
[Parallel(n_jobs=1)]: Done 1 jobs | elapsed: 0.0s
[CV] ................................................................
[CV] ....................................... , score=0.203596 - 0.0s
[CV] ................................................................
[CV] ...................................... , score=-0.813093 - 0.0s
[Parallel(n_jobs=1)]: Done 3 out of 3 | elapsed: 0.0s finished
请注意score=-0.860602
,score=0.203596
并score=-0.813093
在GridSearchCV
输出;
完全由返回的值cross_val_score
。
注意,“均值”实际上是褶皱的宏观平均值。该iid
参数GridSearchCV
可用于在样品上获得的微平均代替。
以上是 scikit学习GridSearchCV best_score_如何计算? 的全部内容, 来源链接: utcz.com/qa/418746.html