二元分类的偏相关图 (PDP) 的 y 轴是什么意思?
What does the y-axis of a Partial Dependence Plot (PDP) for binary classification mean?
我不确定 PDP 的 y 轴表示什么?我的目标特征的概率是 1(二进制分类)还是其他?
如果您绘制 a
列的部分相关图并且您想要解释 x = 0.0
处的 y 值,则 y-axis 值表示 [=29= 的平均概率] 1
由
计算
- 将数据集中所有行中的列
a
的值更改为 0.0
- 用你的拟合模型预测所有改变的行
- 平均模型给出的概率
我可能不太擅长解释,但您可以在 https://christophm.github.io/interpretable-ml-book/pdp.html 阅读更多关于 PDP 的信息。希望这有帮助:)
一般来说,我们可以从函数 f
中生成 classifier,生成 real-value 输出加上阈值。我们称输出为 'activation'。如果激活满足阈值条件被满足,我们说 class 被检测到:
is_class := ( f(x0, x1, ...) > threshold )
和
activation = f(x0, x1, ...)
PDP 图仅显示激活值,因为它们响应输入值的变化而变化(我们忽略阈值)。那是可能的情节:
f(x0, x, x2, x3, ...)
作为单个输入 x
变化。通常,我们保持其他不变,尽管我们也可以在 2d 和 3d 中绘制。
有时我们感兴趣的是:
- 怎么单变激活
- 多个输入如何独立改变激活
- 多重激活如何根据不同的输入而变化,等等。
严格来说,在查看 PDP 图时,我们甚至不需要谈论 classifier。任何产生 real-value 输出(激活)以响应我们可以改变的多个 real-valued 特征输入之一的任何函数都允许我们生成 PDP 图。
分类器激活不需要,通常也不应该像其他人所写的那样,解释为概率。在很多情况下,这只是不正确的。然而,我们对激活水平的分析很感兴趣,独立地激活是否代表概率:例如,在 PDP 图中,我们可以看到哪些特征值产生强烈变化 -更多的水平图可能意味着一个毫无价值的特征。
同样,在 RoC 图中,我们明确检查了有关 true-positive 和 false-position 检测率的信息,这些检测率会因激活值的阈值变化而产生。
在这两种情况下,classifier 都没有必要在激活时产生概率。
PDP 图的解读充满了危险。至少,您需要清楚 随着输入特征的变化 什么保持不变。其他特征是否设置为零(线性模型的一个不错的选择)?我们是否将它们设置为测试集中最常见的值?或者样本中已知 class 的最常见值?如果没有此信息,垂直轴可能不太有用。
知道激活是一种概率似乎对 PDP 图也没有帮助——您不能指望它下面的区域总和为 1。也许您可能会发现的最有用的东西是错误情况,其中输出概率不在 0..1.
范围内
我不确定 PDP 的 y 轴表示什么?我的目标特征的概率是 1(二进制分类)还是其他?
如果您绘制 a
列的部分相关图并且您想要解释 x = 0.0
处的 y 值,则 y-axis 值表示 [=29= 的平均概率] 1
由
- 将数据集中所有行中的列
a
的值更改为0.0
- 用你的拟合模型预测所有改变的行
- 平均模型给出的概率
我可能不太擅长解释,但您可以在 https://christophm.github.io/interpretable-ml-book/pdp.html 阅读更多关于 PDP 的信息。希望这有帮助:)
一般来说,我们可以从函数 f
中生成 classifier,生成 real-value 输出加上阈值。我们称输出为 'activation'。如果激活满足阈值条件被满足,我们说 class 被检测到:
is_class := ( f(x0, x1, ...) > threshold )
和
activation = f(x0, x1, ...)
PDP 图仅显示激活值,因为它们响应输入值的变化而变化(我们忽略阈值)。那是可能的情节:
f(x0, x, x2, x3, ...)
作为单个输入 x
变化。通常,我们保持其他不变,尽管我们也可以在 2d 和 3d 中绘制。
有时我们感兴趣的是:
- 怎么单变激活
- 多个输入如何独立改变激活
- 多重激活如何根据不同的输入而变化,等等。
严格来说,在查看 PDP 图时,我们甚至不需要谈论 classifier。任何产生 real-value 输出(激活)以响应我们可以改变的多个 real-valued 特征输入之一的任何函数都允许我们生成 PDP 图。
分类器激活不需要,通常也不应该像其他人所写的那样,解释为概率。在很多情况下,这只是不正确的。然而,我们对激活水平的分析很感兴趣,独立地激活是否代表概率:例如,在 PDP 图中,我们可以看到哪些特征值产生强烈变化 -更多的水平图可能意味着一个毫无价值的特征。 同样,在 RoC 图中,我们明确检查了有关 true-positive 和 false-position 检测率的信息,这些检测率会因激活值的阈值变化而产生。 在这两种情况下,classifier 都没有必要在激活时产生概率。
PDP 图的解读充满了危险。至少,您需要清楚 随着输入特征的变化 什么保持不变。其他特征是否设置为零(线性模型的一个不错的选择)?我们是否将它们设置为测试集中最常见的值?或者样本中已知 class 的最常见值?如果没有此信息,垂直轴可能不太有用。
知道激活是一种概率似乎对 PDP 图也没有帮助——您不能指望它下面的区域总和为 1。也许您可能会发现的最有用的东西是错误情况,其中输出概率不在 0..1.
范围内