n 维数据的估计经验分布的累积概率

Cumulative probability of estimated empirical distribution for n-dimensional data

问题

我有一个包含 4 个数字特征和 1000 个数据点的数据集。值的分布是未知的(numpy randint 生成统一的整数,但这只是为了说明的目的)。给定新数据点(4 个数字),我想找出这个特定数据点的累积概率(单个数字)是多少。

import numpy as np

data = np.random.randint(1, 100, size=(1000, 4))
array([[28, 52, 91, 66],
       [78, 94, 95, 12],
       [60, 63, 43, 37],
       ...,
       [81, 68, 45, 46],
       [14, 38, 91, 46],
       [37, 51, 68, 97]])

new_data = np.random.randint(1, 100, size=(1, 4))
array([[75, 24, 39, 94]])

我试过:

Scipy

会估计pdf,不知道怎么估计累积概率。可能的方法是 monte-carlo sim 或集成 (scipy.integrate.nquad),这对我的情况来说太慢了 Integrate 2D kernel density estimate.

import scipy.stats
kde = scipy.stats.gaussian_kde(data.T)
kde.pdf(new_data)

Scikit-learn

同上,不知道如何估计累积概率。

from sklearn.neighbors import KernelDensity
model = KernelDensity()
model.fit(data)
np.exp(model.score_samples(new_data))

统计模型

无法存档任何内容,因为它只接受一维数据。

from statsmodels.distributions.empirical_distribution import ECDF
ecdf = ECDF(data[:, 0])
ecdf(new_data[0][0])

问题是,是否有一种快速有效的方法来估计具有提供的 scipy 或 sklearn(最好)模型的 4 维数据点的累积概率?

我是在朝着正确的方向前进,还是有完全不同的方法来解决这个问题?也许变分自动编码器是可行的方法?有没有简单的方法可以解决这个问题?

一个点的多元 ecdf 将只计算值小于该点的观测值的分数。

类似下面的内容

np.random.seed(0)
data = np.random.randint(1, 100, size=(1000, 4))
new_data = np.random.randint(1, 100, size=(2, 4))

def ecdf_mv(new_data, data):
    new_data = np.atleast_2d(new_data)
    ecdf = []
    for row in new_data:
        ecdf.append((data <= row).all(1).mean())

    return np.asarray(ecdf)

ecdf_mv(new_data, data)

array([0.039, 0.002])

一些检查:

ecdf_mv(np.ones(4) * 100 / 2, data), 0.5**4
(array([0.067]), 0.0625)

marginal = 100 * np.ones((4, 4)) - 50 * np.eye(4)
ecdf_mv(marginal, data)
array([0.521, 0.515, 0.502, 0.54 ])

在单变量的情况下,我们可以对数据进行排序以获得一种快速算法来计算原始点的 ecdf。
不知道有没有比蛮力比较计算效率更高的数据结构或者算法,如果ecdf要多点求值

经过反复尝试,我发现了以下内容:

纯 numpy 解决方案(基于 Josef 的):

import numpy as np

def ecdf_mv(new_data, data):
    rows = np.expand_dims(new_data, axis=1)
    ecdf = (data < rows).all(axis=2).mean(axis=1)
    return np.asarray(ecdf)

这将return点数组的经验累积分布函数。

如果需要多版本 KDE 上的 CDF,则可以使用以下代码(虽然速度要慢得多):

from statsmodels.nonparametric.kernel_density import KDEMultivariate

def cdf_kde_mv(new_data, data, data_type):
    data_kde = KDEMultivariate(data, var_type=data_type)
    return data_kde.cdf(new_data)

在性能方面,纯 numpy 可能会更快,但会占用更多内存,而 Josef 使用 for 循环的方法在某些情况下更快。

对于“平滑度”的感觉,它不依赖于“ECDF vs CDF over Multivariate KDE”,而是更多的是你的样本量和容器的数量。在下面的示例中,即使不使用 KDE,可视化看起来也很“流畅”,这是因为样本量对于该数量的箱来说足够大。解释为平滑的插值是matplotlib plot_surface。如果您还需要平滑的分析结果,而不仅仅是图形,请考虑使用 KDE 方法。

通过一些可视化来应用它:

import numpy as np
import matplotlib.pyplot as plt

sample_size = 10_000
bins_count= 20

sample = np.random.multivariate_normal([0, 0], [[1, 0.0], [0.0, 1]] , sample_size)
bins_edges = np.linspace(-4, 4, bins_count + 1)

bins_centers = (bins_edges[:-1] + bins_edges[1:]) / 2
X, Y = np.meshgrid(bins_centers, bins_centers)
x, y = X.ravel(), Y.ravel()

evaluation_points = np.stack([x, y], axis=1)

cummulative_probability = cdf_kde_mv(evaluation_points, sample, "cc")
# Alternatively:
cummulative_probability = ecdf_mv(evaluation_points, sample)
cummulative_probability = cummulative_probability.reshape(bins_count, bins_count)

# Plotting
fig = plt.figure(figsize=(10, 10), constrained_layout=True)
ax = fig.add_subplot(projection='3d')
ax.view_init(elev=20., azim=-135)
ax.plot_surface(X, Y, cummulative_probability, rcount=bins_count, ccount=bins_count, 
                antialiased=False, vmin=0, vmax=cummulative_probability.max(), 
                alpha=0.5, cmap='viridis')
ax.margins(0)
ax.set_zlim(0, 1)
plt.show()