在网格搜索 (ANN) 中对超参数使用连续值

using continious values for hyperparameters in grid search (ANN)

我正在尝试调整神经网络中的超参数(回归问题),我有几个问题:

  1. 在自动优化方法(网格、随机、贝叶斯、遗传等)中我应该使用哪个顺序
  2. 我开始使用网格搜索来了解学习情况,我知道 网格给了我们最佳结果,但它很耗时,我没有时间问题所以我想尝试最好的搜索 space 但我只知道如何为超参数选择离散值并且我 不知道如何给某个超参数一个连续的值来测试,例如:我想以 200 的步长测试(500 和 10000)之间的纪元值,以及之间的学习率 0.001 和 0.9,那么我如何在网格搜索或 ANN 中的任何其他优化方法中实现它。

你应该看看 Tune,它是基于 Ray 的。它提供了几种强大的算法,可以使用网格搜索或更高级的策略(例如基于种群的进化策略)来调整连续和离散参数。另外,它相当容易使用。