应如何解释 Tensorboard 的零值分数?
How should Tensorboard's fraction of zero values be interpreted?
我是 运行 云 ML 引擎工作,我的张量板图显示我的隐藏层的零值分数随着步数的增加稳步增加到 1。这个情节应该如何解释?我认为这是一件好事,因为更多的零值表明该模型正在获得更多 "certain" 关于它所做的预测。
这通常意味着您的正则化技术 and/or 激活函数强制激活为零。您没有分享模型的详细信息,但这在使用 dropout 时很常见,尤其是使用 relu 激活函数时。
具有大量零激活的模型倾向于更好地泛化,因此提供更好的准确性。
如果您需要更多详细信息,请点击此处 JMLR paper on dropout。
我必须指出,让激活变为零有时是不好的,至少对于 ReLU 激活函数而言。基本上,他们可以无可挽回"die"。因此,如果您看到模型质量不佳,请当心。更多信息 here.
我是 运行 云 ML 引擎工作,我的张量板图显示我的隐藏层的零值分数随着步数的增加稳步增加到 1。这个情节应该如何解释?我认为这是一件好事,因为更多的零值表明该模型正在获得更多 "certain" 关于它所做的预测。
这通常意味着您的正则化技术 and/or 激活函数强制激活为零。您没有分享模型的详细信息,但这在使用 dropout 时很常见,尤其是使用 relu 激活函数时。
具有大量零激活的模型倾向于更好地泛化,因此提供更好的准确性。
如果您需要更多详细信息,请点击此处 JMLR paper on dropout。
我必须指出,让激活变为零有时是不好的,至少对于 ReLU 激活函数而言。基本上,他们可以无可挽回"die"。因此,如果您看到模型质量不佳,请当心。更多信息 here.