相关性是否是无监督学习(聚类)中的重要因素?

Does correlation important factor in Unsupervised learning (Clustering)?

我正在处理大小为 (500, 33) 的数据集。

特别是数据集包含 9 个特征说

[X_High, X_medium, X_low, Y_High, Y_medium, Y_low, Z_High, Z_medium, Z_low]

在视觉上和相关矩阵计算之后,我观察到

[X_High, Y_High, Z_High] & [ X_medium, Y_medium, Z_medium ] & [X_low, Y_low, Z_low]高度相关(85%以上)。

我想执行聚类算法(例如 K 均值或 GMM 或 DBSCAN)。

那样的话,

无监督学习是否需要去除相关特征? 删除相关性或修改特征是否会产生任何影响?

我的假设是您问这个问题是因为在线性建模的情况下,高度共线的变量可能会导致问题。

简短的回答是否定的,您不需要出于共线性问题从聚类中删除高度相关的变量。聚类不依赖于线性假设,因此共线性不会引起问题。

这并不意味着使用一堆高度相关的变量是一件好事。您的功能可能过于冗余,并且您可能使用了比达到相同模式所需的更多数据。使用您的数据 size/feature 集,这可能不是问题,但对于大数据,您可以通过 PCA/dimensionality 减少来利用相关变量来减少计算开销。