model_queue_size 是做什么的?
what does model_queue_size do?
一般问题:
使用 scikit-optimize 进行黑盒优化。在文档中找不到 model_queue_size 的作用。我正在做 ask-tell,因为我可以按照示例中的描述并行化 y 的计算。因此,进行一些分析后,看起来 opt.tell() 调用在 model_queue_size 设置得较小时运行得更快。那是 model_queue_size 的作用 - 限制 opt.tell() 调用中使用的样本数量吗?
第二个问题,使用 Optimizier - ask-tell 方法时如何设置 kappa?
谢谢
使用默认 model_queue_size=None
时,所有代理模型都存储在优化器的 models
属性中。如果指定了数字,则只会记住 model_queue_size
个型号。那就是在 the docs.
每次调用 tell
时都会添加一个新模型,一旦达到 model_queue_size
就会丢弃旧模型。因此只会记住最新的模型。通过查看 code.
可以看出这一点
不确定为什么这会影响您的 运行time。我想如果你 运行 许多迭代和模型非常大,它可能是内存问题。
Kappa 可以使用 Optimizer
构造函数的 acq_func_kwargs
参数设置,如 exploration vs exploitation example.
所示
一般问题: 使用 scikit-optimize 进行黑盒优化。在文档中找不到 model_queue_size 的作用。我正在做 ask-tell,因为我可以按照示例中的描述并行化 y 的计算。因此,进行一些分析后,看起来 opt.tell() 调用在 model_queue_size 设置得较小时运行得更快。那是 model_queue_size 的作用 - 限制 opt.tell() 调用中使用的样本数量吗? 第二个问题,使用 Optimizier - ask-tell 方法时如何设置 kappa?
谢谢
使用默认 model_queue_size=None
时,所有代理模型都存储在优化器的 models
属性中。如果指定了数字,则只会记住 model_queue_size
个型号。那就是在 the docs.
每次调用 tell
时都会添加一个新模型,一旦达到 model_queue_size
就会丢弃旧模型。因此只会记住最新的模型。通过查看 code.
可以看出这一点
不确定为什么这会影响您的 运行time。我想如果你 运行 许多迭代和模型非常大,它可能是内存问题。
Kappa 可以使用 Optimizer
构造函数的 acq_func_kwargs
参数设置,如 exploration vs exploitation example.