使用 Mclust 聚类会产生一个空簇

Clustering with Mclust results in an empty cluster

我正在尝试使用 Mclust 对我的经验数据进行聚类。使用以下非常简单的代码时:

library(reshape2)
library(mclust)

data <- read.csv(file.choose(), header=TRUE,  check.names = FALSE)
data_melt <- melt(data, value.name = "value", na.rm=TRUE)

fit <- Mclust(data$value, modelNames="E", G = 1:7)
summary(fit, parameters = TRUE)

R 给出了以下结果:

---------------------------------------------------- 
Gaussian finite mixture model fitted by EM algorithm 
---------------------------------------------------- 

Mclust E (univariate, equal variance) model with 4 components: 

log-likelihood    n df       BIC       ICL
  -20504.71 3258  8 -41074.13 -44326.69

Clustering table:
1    2    3    4 
0 2271  896   91 

Mixing probabilities:
    1         2         3         4 
0.2807685 0.4342499 0.2544305 0.0305511 

Means:
   1        2        3        4 
1381.391 1381.715 1574.335 1851.667 

Variances:
   1        2        3        4 
7466.189 7466.189 7466.189 7466.189 

编辑:这是我的下载数据https://www.file-upload.net/download-14320392/example.csv.html

我不太明白为什么 Mclust 给我一个空簇 (0),尤其是与第二个簇的平均值几乎相同。这仅在专门寻找单变量、等方差模型时出现。使用例如 modelNames="V" 或保留默认值,不会产生此问题。

这个帖子: 有一个类似的问题,但如果我理解正确的话,这似乎是由于随机生成的数据造成的?

我有点不知道我的问题出在哪里,或者我是否遗漏了任何明显的东西。 感谢您的帮助!

正如您所指出的,集群 1 和集群 2 的平均值非常相似,碰巧那里有很多数据(见直方图上的尖峰):

set.seed(111)
data <- read.csv("example.csv", header=TRUE,  check.names = FALSE)
fit <- Mclust(data$value, modelNames="E", G = 1:7)
hist(data$value,br=50)
abline(v=fit$parameters$mean,
col=c("#FF000080","#0000FF80","#BEBEBE80","#BEBEBE80"),lty=8)

简而言之,mclust或gmm是概率模型,它估计簇的均值/方差以及属于每个簇的每个点的概率。这与 k-means 提供的硬赋值不同。所以模型的似然是每个数据点属于每个cluster的概率之和,大家可以看看also in mclust's publication

在此模型中,聚类 1 和聚类 2 的均值接近但它们的预期比例不同:

fit$parameters$pro
[1] 0.28565736 0.42933294 0.25445342 0.03055627

这意味着如果您有一个数据点在 1 或 2 的平均值附近,它将始终分配给聚类 2,例如让我们尝试预测从 1350 到 1400 的数据点:

head(predict(fit,1350:1400)$z)
             1         2          3            4
[1,] 0.3947392 0.5923461 0.01291472 2.161694e-09
[2,] 0.3945941 0.5921579 0.01324800 2.301397e-09
[3,] 0.3944456 0.5919646 0.01358975 2.450108e-09
[4,] 0.3942937 0.5917661 0.01394020 2.608404e-09
[5,] 0.3941382 0.5915623 0.01429955 2.776902e-09
[6,] 0.3939790 0.5913529 0.01466803 2.956257e-09

$classification是取概率最大的列得到的。所以,同样的例子,一切都被分配给 2:

 head(predict(fit,1350:1400)$classification)
[1] 2 2 2 2 2 2

回答你的问题,不,你没有做错任何事,至少对于 GMM 的这个实现来说,这是一个后备。我会说这有点过拟合,但您基本上可以只采用具有成员资格的集群。

如果你使用 model="V",我发现解决方案同样有问题:

fitv <- Mclust(Data$value, modelNames="V", G = 1:7)
plot(fitv,what="classification")

使用 scikit 学习 GMM 我没有看到类似的问题。因此,如果您需要使用具有球面均值的高斯混合,请考虑使用模糊 kmeans:

library(ClusterR)
plot(NULL,xlim=range(data),ylim=c(0,4),ylab="cluster",yaxt="n",xlab="values")
points(data$value,fit_kmeans$clusters,pch=19,cex=0.1,col=factor(fit_kmeans$clusteraxis(2,1:3,as.character(1:3))

如果不需要等方差,也可以使用 ClusterR 包中的 GMM 函数。