亲和力传播偏好初始化

Affinity Propagation preferences initialization

我需要在事先不知道聚类数量的情况下执行聚类。集群的数量可能是 1 到 5,因为我可能会发现所有样本都属于同一个实例,或者属于有限数量的组的情况。 我认为亲和力传播可能是我的选择,因为我可以通过设置首选项参数来控制集群的数量。 但是,如果我有一个人工生成的单个集群,并且我将偏好设置为节点之间的最小欧几里得距离(以最小化集群数量),我会在集群上变得糟糕。

"""
=================================================
Demo of affinity propagation clustering algorithm
=================================================

Reference:
Brendan J. Frey and Delbert Dueck, "Clustering by Passing Messages
Between Data Points", Science Feb. 2007

"""
print(__doc__)
import numpy as np
from sklearn.cluster import AffinityPropagation
from sklearn import metrics
from sklearn.datasets.samples_generator import make_blobs
from scipy.spatial.distance import pdist

##############################################################################
# Generate sample data
centers = [[0,0],[1,1]]
X, labels_true = make_blobs(n_samples=300, centers=centers, cluster_std=0.5,
                            random_state=0)
init = np.min(pdist(X))

##############################################################################
# Compute Affinity Propagation
af = AffinityPropagation(preference=init).fit(X)
cluster_centers_indices = af.cluster_centers_indices_
labels = af.labels_

n_clusters_ = len(cluster_centers_indices)

print('Estimated number of clusters: %d' % n_clusters_)
print("Homogeneity: %0.3f" % metrics.homogeneity_score(labels_true, labels))
print("Completeness: %0.3f" % metrics.completeness_score(labels_true, labels))
print("V-measure: %0.3f" % metrics.v_measure_score(labels_true, labels))
print("Adjusted Rand Index: %0.3f"
      % metrics.adjusted_rand_score(labels_true, labels))
print("Adjusted Mutual Information: %0.3f"
      % metrics.adjusted_mutual_info_score(labels_true, labels))
print("Silhouette Coefficient: %0.3f"
      % metrics.silhouette_score(X, labels, metric='sqeuclidean'))

##############################################################################
# Plot result
import matplotlib.pyplot as plt
from itertools import cycle

plt.close('all')
plt.figure(1)
plt.clf()

colors = cycle('bgrcmykbgrcmykbgrcmykbgrcmyk')
for k, col in zip(range(n_clusters_), colors):
    class_members = labels == k
    cluster_center = X[cluster_centers_indices[k]]
    plt.plot(X[class_members, 0], X[class_members, 1], col + '.')
    plt.plot(cluster_center[0], cluster_center[1], 'o', markerfacecolor=col,
             markeredgecolor='k', markersize=14)
    for x in X[class_members]:
        plt.plot([cluster_center[0], x[0]], [cluster_center[1], x[1]], col)

plt.title('Estimated number of clusters: %d' % n_clusters_)
plt.show()

我使用亲和力传播的方法有什么缺陷吗?相反,Affinity Propagation 不适合这个任务,所以我应该使用其他东西吗?

没有,没有瑕疵。 AP 不使用距离,但需要您指定相似度。我不太了解 scikit 的实现,但根据我的阅读,它默认使用 negative 平方欧氏距离 来计算相似度矩阵。如果将输入首选项设置为最小欧几里得距离,则会得到一个正值,而所有相似性都是负值。因此,这通常会产生与样本一样多的聚类(注意:输入偏好越高,聚类越多)。我宁愿建议将输入首选项设置为最小负平方距离,即 -1 乘以数据集中 最大 距离的平方。这将为您提供更少数量的集群,但不一定是一个集群。我不知道 preferenceRange() 函数是否也存在于 scikit 实现中。 AP主页上有Matlab代码,也在我维护的R包'apcluster'中实现。此函数允许为输入偏好参数确定有意义的界限。希望对您有所帮助。

您可以通过指定最低首选项来控制它,但不确定您是否会找到一个集群。

而且,我建议你不要做一个单一的集群,因为它会产生错误,因为一些数据不能与示例相同或相似,但你提供了最低限度的偏好,所以 AP会报错。

您还可以通过本质上 运行 第二次使用中心样本或手动合并最相似的样本来将聚类合并在一起。因此,您可以迭代地合并最近的集群,直到获得您的号码,从而使偏好的选择更加容易,因为您可以选择任何能够产生相当数量的集群的东西(我尝试时效果很好)。