如何比使用“ray.tune.Trainable”评估更频繁地记录
How to log more frequently than evaluating with `ray.tune.Trainable`
我对使用 tune
库进行强化学习很感兴趣,我想使用内置的张量板功能。然而,我用来调整我的超参数的指标是基于一个耗时的评估过程,应该很少 运行。
根据文档,_train
方法 return 看起来像是一个既用于日志记录又用于调整超参数的字典。是否可以在 _train
方法中更频繁地执行日志记录?或者,我可以 return 我希望从 _train
方法记录的值,但有时会从字典中省略计算成本高的指标吗?
一种选择是在 Trainable 中使用您自己的日志记录机制。您可以登录到特定于试用版的目录 (Trainable.logdir)。如果这与内置的 Tensorboard 日志记录冲突,您可以通过设置 tune.run(loggers=None)
.
来删除它
另一种选择是,如您所提到的,有时从字典中省略计算成本高的指标。如果您 运行 遇到问题,您还可以 return "None" 作为您不打算在特定迭代中计算的那些指标的值。
希望对您有所帮助!
我对使用 tune
库进行强化学习很感兴趣,我想使用内置的张量板功能。然而,我用来调整我的超参数的指标是基于一个耗时的评估过程,应该很少 运行。
根据文档,_train
方法 return 看起来像是一个既用于日志记录又用于调整超参数的字典。是否可以在 _train
方法中更频繁地执行日志记录?或者,我可以 return 我希望从 _train
方法记录的值,但有时会从字典中省略计算成本高的指标吗?
一种选择是在 Trainable 中使用您自己的日志记录机制。您可以登录到特定于试用版的目录 (Trainable.logdir)。如果这与内置的 Tensorboard 日志记录冲突,您可以通过设置 tune.run(loggers=None)
.
另一种选择是,如您所提到的,有时从字典中省略计算成本高的指标。如果您 运行 遇到问题,您还可以 return "None" 作为您不打算在特定迭代中计算的那些指标的值。
希望对您有所帮助!