解释 GridSearchCV 中的岭回归
Interpreting ridge regression in GridSearchCV
即使我已经尝试了从 0.01 到 25 的一长串 alpha,为什么我的交叉验证岭回归模型中的错误没有显着变化?
代码
from sklearn.linear_model import Ridge
from sklearn.model_selection import GridSearchCV
params={'alpha': [25,10,4,2,1.0,0.8,0.5,0.3,0.2,0.1,0.05,0.02,0.01]}
rdg_reg = Ridge()
clf = GridSearchCV(rdg_reg,params,cv=2,verbose = 1, scoring = 'neg_mean_squared_error')
clf.fit(x_dummied_poly,y)
clf.best_params_
#{'alpha': 4}
pd.DataFrame(clf.cv_results_)
您要么必须向我们提供数据,这样我们就可以执行我们自己的一组特征选择和降维(我怀疑有人会为您做这件事,因为这是一个非常乏味且耗时的过程,这是就像你在培训中做的一些机器学习项目,你得到报酬)
或
假设机器学习领域有 'No free lunch'。那句话的意思是; 'BEST' 模型可以满足您的需求。
这可以扩展到不同意义上的参数调整。没有硬性规定'alpha'是最好的参数;改变 alpha 值必须反映在均方误差的显着变化上。
或
尝试在 CrossValidated StackExchange 中提出这个问题。
即使我已经尝试了从 0.01 到 25 的一长串 alpha,为什么我的交叉验证岭回归模型中的错误没有显着变化?
代码
from sklearn.linear_model import Ridge
from sklearn.model_selection import GridSearchCV
params={'alpha': [25,10,4,2,1.0,0.8,0.5,0.3,0.2,0.1,0.05,0.02,0.01]}
rdg_reg = Ridge()
clf = GridSearchCV(rdg_reg,params,cv=2,verbose = 1, scoring = 'neg_mean_squared_error')
clf.fit(x_dummied_poly,y)
clf.best_params_
#{'alpha': 4}
pd.DataFrame(clf.cv_results_)
您要么必须向我们提供数据,这样我们就可以执行我们自己的一组特征选择和降维(我怀疑有人会为您做这件事,因为这是一个非常乏味且耗时的过程,这是就像你在培训中做的一些机器学习项目,你得到报酬)
或
假设机器学习领域有 'No free lunch'。那句话的意思是; 'BEST' 模型可以满足您的需求。
这可以扩展到不同意义上的参数调整。没有硬性规定'alpha'是最好的参数;改变 alpha 值必须反映在均方误差的显着变化上。
或
尝试在 CrossValidated StackExchange 中提出这个问题。