使用 keras 模型进行超参数优化:GridSearchCV 还是 talos?
Hyper-parameter Optimization with keras models: GridSearchCV or talos?
我想调整 keras
模型的超参数,我正在探索手头的替代方案。第一个也是最明显的一个是使用 scikit-learn
包装器,如此处所示 (https://keras.io/scikit-learn-api/) thereby being able to use all the faboulous things in the scikit-learn
worflow but I also came across this package here (https://github.com/autonomio/talos),这看起来很有前途并且很可能提供速度提升。
如果有人同时使用它们,有人可以指出更好的解决方案(灵活性、速度、功能)吗?带有 pipeline
和自定义估算器的 sklearn
工作流程提供了一个灵活的世界,但 talos 似乎更直接地针对 keras,因此它必须产生一些优势(我猜他们不会制作一个新的独立包,否则)我看不到(这里强调了一些好处 https://github.com/autonomio/talos/blob/master/docs/roadmap.rst 但这些事情似乎在 scikit-learn
框架中得到了充分涵盖)
有什么见解吗?
个人意见:
train/valid/test 拆分对于深度学习来说是比交叉验证更好的选择。 (k次训练成本太高)
随机搜索是开始探索超参数的好方法,所以自己编写代码并不难,但是 talos 或 hyperas(非常有名)可能会有所帮助。
我想调整 keras
模型的超参数,我正在探索手头的替代方案。第一个也是最明显的一个是使用 scikit-learn
包装器,如此处所示 (https://keras.io/scikit-learn-api/) thereby being able to use all the faboulous things in the scikit-learn
worflow but I also came across this package here (https://github.com/autonomio/talos),这看起来很有前途并且很可能提供速度提升。
如果有人同时使用它们,有人可以指出更好的解决方案(灵活性、速度、功能)吗?带有 pipeline
和自定义估算器的 sklearn
工作流程提供了一个灵活的世界,但 talos 似乎更直接地针对 keras,因此它必须产生一些优势(我猜他们不会制作一个新的独立包,否则)我看不到(这里强调了一些好处 https://github.com/autonomio/talos/blob/master/docs/roadmap.rst 但这些事情似乎在 scikit-learn
框架中得到了充分涵盖)
有什么见解吗?
个人意见:
train/valid/test 拆分对于深度学习来说是比交叉验证更好的选择。 (k次训练成本太高)
随机搜索是开始探索超参数的好方法,所以自己编写代码并不难,但是 talos 或 hyperas(非常有名)可能会有所帮助。