贝叶斯学习中的 space 版本到底是什么?
What exactly is version space in bayesian learning?
在贝叶斯学习中,假设给定数据的概率是
P(h|D) = 1/|VSh,d|
根据google,VSh,d 是 H 的假设子集,与 D 一致(即 VSh,d 是 H wrt D 的 space 版本)。
我无法理解版本 space 的确切含义。谁能给我一个解释和一个实际的例子吗?
根据贝叶斯学习,我们知道
P(h|D) = (P(D|h)*P(h)) / P(D)
其中P(D|h) = 1
如果我们假设假设h与数据D一致,P(h) = 1/|H|
我们假设每个假设都是等概率的,P(D)是观察到的概率来自我们假设集 H 的数据。
让我们分解一下:
我们知道H是所有可能假设的集合。所以 D 的概率将等于真正满足我们假设的假设集对所有可能假设的集合。
这是版本space,它是与我们的数据D一致的所有假设的集合,或者换句话说,满足数据的所有假设。
因此 P(D) = |VSh,d|/|H|
.
当您将所有这些条款都放在适当的位置时,您会得到:
P(h|D) = 1/|VSh,d|
哪里||此处表示版本大小 space.
示例:
假设我们有我们的数据集 [4, 8, 16]
并且给定的所有可能假设的集合是
- H1 : 2 的幂
- H2 : 偶数
- H3 : 4 的幂
- H4 : 1 到 50 之间的所有值
现在,如果您看到只有三个假设满足我们的数据 [H1、H2、H4]。这被称为 version space 并且 [H1, H2, H3, H4] 是假设集。
所以你的 P(D) 会变成 |VS|/|H|
即 3/4
.
在贝叶斯学习中,假设给定数据的概率是
P(h|D) = 1/|VSh,d|
根据google,VSh,d 是 H 的假设子集,与 D 一致(即 VSh,d 是 H wrt D 的 space 版本)。
我无法理解版本 space 的确切含义。谁能给我一个解释和一个实际的例子吗?
根据贝叶斯学习,我们知道
P(h|D) = (P(D|h)*P(h)) / P(D)
其中P(D|h) = 1
如果我们假设假设h与数据D一致,P(h) = 1/|H|
我们假设每个假设都是等概率的,P(D)是观察到的概率来自我们假设集 H 的数据。
让我们分解一下:
我们知道H是所有可能假设的集合。所以 D 的概率将等于真正满足我们假设的假设集对所有可能假设的集合。
这是版本space,它是与我们的数据D一致的所有假设的集合,或者换句话说,满足数据的所有假设。
因此 P(D) = |VSh,d|/|H|
.
当您将所有这些条款都放在适当的位置时,您会得到:
P(h|D) = 1/|VSh,d|
哪里||此处表示版本大小 space.
示例:
假设我们有我们的数据集 [4, 8, 16]
并且给定的所有可能假设的集合是
- H1 : 2 的幂
- H2 : 偶数
- H3 : 4 的幂
- H4 : 1 到 50 之间的所有值
现在,如果您看到只有三个假设满足我们的数据 [H1、H2、H4]。这被称为 version space 并且 [H1, H2, H3, H4] 是假设集。
所以你的 P(D) 会变成 |VS|/|H|
即 3/4
.