使用 Mclust 聚类会产生一个空簇
Clustering with Mclust results in an empty cluster
我正在尝试使用 Mclust 对我的经验数据进行聚类。使用以下非常简单的代码时:
library(reshape2)
library(mclust)
data <- read.csv(file.choose(), header=TRUE, check.names = FALSE)
data_melt <- melt(data, value.name = "value", na.rm=TRUE)
fit <- Mclust(data$value, modelNames="E", G = 1:7)
summary(fit, parameters = TRUE)
R 给出了以下结果:
----------------------------------------------------
Gaussian finite mixture model fitted by EM algorithm
----------------------------------------------------
Mclust E (univariate, equal variance) model with 4 components:
log-likelihood n df BIC ICL
-20504.71 3258 8 -41074.13 -44326.69
Clustering table:
1 2 3 4
0 2271 896 91
Mixing probabilities:
1 2 3 4
0.2807685 0.4342499 0.2544305 0.0305511
Means:
1 2 3 4
1381.391 1381.715 1574.335 1851.667
Variances:
1 2 3 4
7466.189 7466.189 7466.189 7466.189
编辑:这是我的下载数据https://www.file-upload.net/download-14320392/example.csv.html
我不太明白为什么 Mclust 给我一个空簇 (0),尤其是与第二个簇的平均值几乎相同。这仅在专门寻找单变量、等方差模型时出现。使用例如 modelNames="V" 或保留默认值,不会产生此问题。
这个帖子: 有一个类似的问题,但如果我理解正确的话,这似乎是由于随机生成的数据造成的?
我有点不知道我的问题出在哪里,或者我是否遗漏了任何明显的东西。
感谢您的帮助!
正如您所指出的,集群 1 和集群 2 的平均值非常相似,碰巧那里有很多数据(见直方图上的尖峰):
set.seed(111)
data <- read.csv("example.csv", header=TRUE, check.names = FALSE)
fit <- Mclust(data$value, modelNames="E", G = 1:7)
hist(data$value,br=50)
abline(v=fit$parameters$mean,
col=c("#FF000080","#0000FF80","#BEBEBE80","#BEBEBE80"),lty=8)
简而言之,mclust或gmm是概率模型,它估计簇的均值/方差以及属于每个簇的每个点的概率。这与 k-means 提供的硬赋值不同。所以模型的似然是每个数据点属于每个cluster的概率之和,大家可以看看also in mclust's publication
在此模型中,聚类 1 和聚类 2 的均值接近但它们的预期比例不同:
fit$parameters$pro
[1] 0.28565736 0.42933294 0.25445342 0.03055627
这意味着如果您有一个数据点在 1 或 2 的平均值附近,它将始终分配给聚类 2,例如让我们尝试预测从 1350 到 1400 的数据点:
head(predict(fit,1350:1400)$z)
1 2 3 4
[1,] 0.3947392 0.5923461 0.01291472 2.161694e-09
[2,] 0.3945941 0.5921579 0.01324800 2.301397e-09
[3,] 0.3944456 0.5919646 0.01358975 2.450108e-09
[4,] 0.3942937 0.5917661 0.01394020 2.608404e-09
[5,] 0.3941382 0.5915623 0.01429955 2.776902e-09
[6,] 0.3939790 0.5913529 0.01466803 2.956257e-09
$classification
是取概率最大的列得到的。所以,同样的例子,一切都被分配给 2:
head(predict(fit,1350:1400)$classification)
[1] 2 2 2 2 2 2
回答你的问题,不,你没有做错任何事,至少对于 GMM 的这个实现来说,这是一个后备。我会说这有点过拟合,但您基本上可以只采用具有成员资格的集群。
如果你使用 model="V",我发现解决方案同样有问题:
fitv <- Mclust(Data$value, modelNames="V", G = 1:7)
plot(fitv,what="classification")
使用 scikit 学习 GMM 我没有看到类似的问题。因此,如果您需要使用具有球面均值的高斯混合,请考虑使用模糊 kmeans:
library(ClusterR)
plot(NULL,xlim=range(data),ylim=c(0,4),ylab="cluster",yaxt="n",xlab="values")
points(data$value,fit_kmeans$clusters,pch=19,cex=0.1,col=factor(fit_kmeans$clusteraxis(2,1:3,as.character(1:3))
如果不需要等方差,也可以使用 ClusterR 包中的 GMM 函数。
我正在尝试使用 Mclust 对我的经验数据进行聚类。使用以下非常简单的代码时:
library(reshape2)
library(mclust)
data <- read.csv(file.choose(), header=TRUE, check.names = FALSE)
data_melt <- melt(data, value.name = "value", na.rm=TRUE)
fit <- Mclust(data$value, modelNames="E", G = 1:7)
summary(fit, parameters = TRUE)
R 给出了以下结果:
----------------------------------------------------
Gaussian finite mixture model fitted by EM algorithm
----------------------------------------------------
Mclust E (univariate, equal variance) model with 4 components:
log-likelihood n df BIC ICL
-20504.71 3258 8 -41074.13 -44326.69
Clustering table:
1 2 3 4
0 2271 896 91
Mixing probabilities:
1 2 3 4
0.2807685 0.4342499 0.2544305 0.0305511
Means:
1 2 3 4
1381.391 1381.715 1574.335 1851.667
Variances:
1 2 3 4
7466.189 7466.189 7466.189 7466.189
编辑:这是我的下载数据https://www.file-upload.net/download-14320392/example.csv.html
我不太明白为什么 Mclust 给我一个空簇 (0),尤其是与第二个簇的平均值几乎相同。这仅在专门寻找单变量、等方差模型时出现。使用例如 modelNames="V" 或保留默认值,不会产生此问题。
这个帖子:
我有点不知道我的问题出在哪里,或者我是否遗漏了任何明显的东西。 感谢您的帮助!
正如您所指出的,集群 1 和集群 2 的平均值非常相似,碰巧那里有很多数据(见直方图上的尖峰):
set.seed(111)
data <- read.csv("example.csv", header=TRUE, check.names = FALSE)
fit <- Mclust(data$value, modelNames="E", G = 1:7)
hist(data$value,br=50)
abline(v=fit$parameters$mean,
col=c("#FF000080","#0000FF80","#BEBEBE80","#BEBEBE80"),lty=8)
简而言之,mclust或gmm是概率模型,它估计簇的均值/方差以及属于每个簇的每个点的概率。这与 k-means 提供的硬赋值不同。所以模型的似然是每个数据点属于每个cluster的概率之和,大家可以看看also in mclust's publication
在此模型中,聚类 1 和聚类 2 的均值接近但它们的预期比例不同:
fit$parameters$pro
[1] 0.28565736 0.42933294 0.25445342 0.03055627
这意味着如果您有一个数据点在 1 或 2 的平均值附近,它将始终分配给聚类 2,例如让我们尝试预测从 1350 到 1400 的数据点:
head(predict(fit,1350:1400)$z)
1 2 3 4
[1,] 0.3947392 0.5923461 0.01291472 2.161694e-09
[2,] 0.3945941 0.5921579 0.01324800 2.301397e-09
[3,] 0.3944456 0.5919646 0.01358975 2.450108e-09
[4,] 0.3942937 0.5917661 0.01394020 2.608404e-09
[5,] 0.3941382 0.5915623 0.01429955 2.776902e-09
[6,] 0.3939790 0.5913529 0.01466803 2.956257e-09
$classification
是取概率最大的列得到的。所以,同样的例子,一切都被分配给 2:
head(predict(fit,1350:1400)$classification)
[1] 2 2 2 2 2 2
回答你的问题,不,你没有做错任何事,至少对于 GMM 的这个实现来说,这是一个后备。我会说这有点过拟合,但您基本上可以只采用具有成员资格的集群。
如果你使用 model="V",我发现解决方案同样有问题:
fitv <- Mclust(Data$value, modelNames="V", G = 1:7)
plot(fitv,what="classification")
使用 scikit 学习 GMM 我没有看到类似的问题。因此,如果您需要使用具有球面均值的高斯混合,请考虑使用模糊 kmeans:
library(ClusterR)
plot(NULL,xlim=range(data),ylim=c(0,4),ylab="cluster",yaxt="n",xlab="values")
points(data$value,fit_kmeans$clusters,pch=19,cex=0.1,col=factor(fit_kmeans$clusteraxis(2,1:3,as.character(1:3))
如果不需要等方差,也可以使用 ClusterR 包中的 GMM 函数。