以下用于绘制决策面的代码挂在哪里?

Where is the following code for plotting decision surface hanging?

作为练习,我从 iris 数据集上的 sklearn 文档中复制粘贴了决策面绘图代码:

# Few differences from the original at the link below (two classes, some renamed vars):
# http://scikit-learn.org/stable/auto_examples/tree/plot_iris.html
# Parameters
n_classes = 2
plot_colors = "rb"
plot_step = 0.02

# Get my X and y - each sample is a histogram with a binary class label.
X, y, positives = Loader.load_cluster_size_histograms_singular(m=115, upper=21, norm=False, display_plot=False, pretty_print=False)

my_features = [str(i+1) for i in range(X.shape[1])]
my_features[-1] = my_features[-1] + '+'
features = np.asarray(my_features)

# Load iris data
iris = load_iris()

iris.data = iris.data[:, 100]
iris.target = iris.target[:, 100]

features = iris.feature_names  # Comment or uncomment as necessary

# Now asserting that my X and y does not contain np.nan or np.inf (wouldn't sklearn catch this though?)
# Also check for correct sizing. We're really running out of potential failures here.
for i in range(115):
    assert(np.nan not in X[i])
    assert(np.inf not in X[i])
    assert(X[i].shape[0] == 21)

# They do not. X and y are clean.

for pairidx, pair in enumerate([[0, 1], [0, 2], [0, 3],
                                [1, 2], [1, 3], [2, 3]]):
    # Set local_X = X[:, pair], local_y = y, features to my_features... BOOOOOM! 
    # CPU gets nuked, doesn't terminate.
    local_X = iris.data[:, pair]
    local_y = iris.target

    # Train
    clf = Pipeline(steps=[("scaling", StandardScaler()), ("classifier", LogisticRegression(verbose=100))])
    clf.fit(local_X, local_y)

    # Plot the decision boundary
    plt.subplot(2, 3, pairidx + 1)

    x_min, x_max = local_X[:, 0].min() - 1, local_X[:, 0].max() + 1
    y_min, y_max = local_X[:, 1].min() - 1, local_X[:, 1].max() + 1
    xx, yy = np.meshgrid(np.arange(x_min, x_max, plot_step),
                         np.arange(y_min, y_max, plot_step))
    plt.tight_layout(h_pad=0.5, w_pad=0.5, pad=2.5)

    Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)
    cs = plt.contourf(xx, yy, Z, cmap=plt.cm.RdYlBu)

    plt.xlabel(features[pair[0]])
    plt.ylabel(features[pair[1]])

    # Plot the training points
    for i, color in zip(range(n_classes), plot_colors):
        idx = np.where(local_y == i)
        plt.scatter(local_X[idx, 0], local_X[idx, 1], c=color, label=features[i],
                    cmap=plt.cm.RdBu, edgecolor='black', s=15)

plt.suptitle("Decision surface of a decision tree using paired features")
plt.legend(loc='lower right', borderpad=0, handletextpad=0)
plt.axis("tight")
plt.show()

输出如下:

好吗?所以代码完全没问题,只是重命名和 using/removing 一些小细节。这里绝对没有问题。

我的问题是 - 当我用我自己的虹膜数据集替换 iris 数据集时,它完全炸毁了 clf.fit(local_X, local_y) 行的 CPU。不管什么分类器,Logistic Regression,SVM,GaussianNB,一大堆。一切都慢得令人难以置信的缓慢爬行,点击注册需要几十秒。不会终止,即使在几分钟后听到我的 CPU 被水刑。上面代码中的 ONLY 区别是我设置了 local_X = X[:, pair],我设置了 local_y = y,我设置了 features = np.asarray(my_features)(其中 my_features是我自己的特征名称向量作为一个 numpy 数组)。

配备 1.4 GHz Intel Core i5 的 Macbook Air 上 CPU 负载的视觉效果:

我的数据集也不是很大 - 只有 (115, 21) 和 (115,) 用于我自己的 X 和 y。所以数据的大小不能成为一个因素。

现在 Q/A 那些喜欢批评而不是帮助的人:

您没有缩放输入。

你做错了。

您试过关机再开机吗?

当我 运行 我的代码将分类器的详细程度设置为 100 时,我得到的唯一输出是:

[LibLinear]

不多,但它打印了所有内容。感谢任何有用的评论、建议和理想的答案!

EDTI:

有人要求我提供数据集的代表性样本。如前所述,样本是直方图。一个示例可能如下所示(np.array 类型,元素类型为 np.float32):

[1515. 1072.  598.  447.  307.  221.  184.  166.  121.   82.   76.   67.   69.   58.   39.   49.   40.   37.   24.   27.  590.]

更新:因此尝试使用 norm=True 再次加载我的数据集(这意味着每个直方图总计为 1,所以我的浮点值在 0 和 1 之间,但没有其他规范化发生,这是没有 StandardScaler( ) 在管道中),代码 运行s,但得到无用的结果:

当管道中包含 StandardScaler() 时,我在使用逻辑回归时得到了类似的奇怪结果:

当norm=False时,仍然会出现完全挂起。这很奇怪。

所以我发现了问题 - 它实际上不是 fit() 函数中断。是 np.meshgrid()!事实上,当输入范围为数百或数千时,plot_size 参数设置为 0.02。

我的猜测是,当使用值范围调用 np.meshgrid() 时,坐标的绝对数量导致它完全崩溃。一旦我开始使用更能反映合理步骤的值(例如 100)作为我的输入,它就开始工作了。

很愚蠢 np.meshgrid() 不会对这些类型的输入发出警告。由于缺少 heads-up,我的 CPU 的负载量一度达到 475%。同样,sklearn 文档可能会提到应该相应地调整 plot_step 参数。