相关性是否是无监督学习(聚类)中的重要因素?
Does correlation important factor in Unsupervised learning (Clustering)?
我正在处理大小为 (500, 33) 的数据集。
特别是数据集包含 9 个特征说
[X_High, X_medium, X_low, Y_High, Y_medium, Y_low, Z_High, Z_medium, Z_low]
在视觉上和相关矩阵计算之后,我观察到
[X_High, Y_High, Z_High] & [ X_medium, Y_medium, Z_medium ] & [X_low, Y_low, Z_low]高度相关(85%以上)。
我想执行聚类算法(例如 K 均值或 GMM 或 DBSCAN)。
那样的话,
无监督学习是否需要去除相关特征?
删除相关性或修改特征是否会产生任何影响?
我的假设是您问这个问题是因为在线性建模的情况下,高度共线的变量可能会导致问题。
简短的回答是否定的,您不需要出于共线性问题从聚类中删除高度相关的变量。聚类不依赖于线性假设,因此共线性不会引起问题。
这并不意味着使用一堆高度相关的变量是一件好事。您的功能可能过于冗余,并且您可能使用了比达到相同模式所需的更多数据。使用您的数据 size/feature 集,这可能不是问题,但对于大数据,您可以通过 PCA/dimensionality 减少来利用相关变量来减少计算开销。
我正在处理大小为 (500, 33) 的数据集。
特别是数据集包含 9 个特征说
[X_High, X_medium, X_low, Y_High, Y_medium, Y_low, Z_High, Z_medium, Z_low]
在视觉上和相关矩阵计算之后,我观察到
[X_High, Y_High, Z_High] & [ X_medium, Y_medium, Z_medium ] & [X_low, Y_low, Z_low]高度相关(85%以上)。
我想执行聚类算法(例如 K 均值或 GMM 或 DBSCAN)。
那样的话,
无监督学习是否需要去除相关特征? 删除相关性或修改特征是否会产生任何影响?
我的假设是您问这个问题是因为在线性建模的情况下,高度共线的变量可能会导致问题。
简短的回答是否定的,您不需要出于共线性问题从聚类中删除高度相关的变量。聚类不依赖于线性假设,因此共线性不会引起问题。
这并不意味着使用一堆高度相关的变量是一件好事。您的功能可能过于冗余,并且您可能使用了比达到相同模式所需的更多数据。使用您的数据 size/feature 集,这可能不是问题,但对于大数据,您可以通过 PCA/dimensionality 减少来利用相关变量来减少计算开销。