选择超参数 - 网格搜索
Choosing Hyperparameters - Grid Search
在此 example 中测试了逻辑回归模型的惩罚和正则化参数。我不明白如何选择这些参数。例如,为什么关注 (11,12) 或 (0,4)?这与我们拥有的数据有何关系?
网格搜索的目的是找到广义的最优参数。
For example why focus on (l1,l2) or (0,4)?
惩罚参数和正则化参数影响分类边界。所以要找到最好的分类是重点。
How does this relate to the data we have?
这些与我们掌握的数据没有直接关系。这个想法是,例如我们必须选择 'C'(正则化)参数,它给出训练集和验证集之间的最小差异。这样模型就应该简单并且可以在未来的数据上泛化。
一般情况下,参数范围的选择,并不是在之前迭代的基础上单次尝试,范围可以根据模型的表现进行拓宽。
在此 example 中测试了逻辑回归模型的惩罚和正则化参数。我不明白如何选择这些参数。例如,为什么关注 (11,12) 或 (0,4)?这与我们拥有的数据有何关系?
网格搜索的目的是找到广义的最优参数。
For example why focus on (l1,l2) or (0,4)?
惩罚参数和正则化参数影响分类边界。所以要找到最好的分类是重点。
How does this relate to the data we have?
这些与我们掌握的数据没有直接关系。这个想法是,例如我们必须选择 'C'(正则化)参数,它给出训练集和验证集之间的最小差异。这样模型就应该简单并且可以在未来的数据上泛化。
一般情况下,参数范围的选择,并不是在之前迭代的基础上单次尝试,范围可以根据模型的表现进行拓宽。