在 Keras 指标之间共享操作结果
Share operation result between Keras metrics
我有一个(耗时的)操作是多个指标共有的。在指标之间共享运算结果的最佳方式是什么,以避免每次都重新计算它的开销?
您应该创建一个特殊的 class 来覆盖 tf.keras.callback.Callback()
(从而实现您自己的回调 class)并通过覆盖方法 on_epoch_end()
来计算您需要的指标.
然后,您可以计算一些指标,例如,在验证集上,因此您手动确保如果您计算 TP + FP
,您确实使用这个总和来计算精度(TP / (TP + FP)
) 而不是重新计算它。
手动执行此操作可确保不会进行 additional/superfluous 计算。
我有一个(耗时的)操作是多个指标共有的。在指标之间共享运算结果的最佳方式是什么,以避免每次都重新计算它的开销?
您应该创建一个特殊的 class 来覆盖 tf.keras.callback.Callback()
(从而实现您自己的回调 class)并通过覆盖方法 on_epoch_end()
来计算您需要的指标.
然后,您可以计算一些指标,例如,在验证集上,因此您手动确保如果您计算 TP + FP
,您确实使用这个总和来计算精度(TP / (TP + FP)
) 而不是重新计算它。
手动执行此操作可确保不会进行 additional/superfluous 计算。