如何用SVM处理多class class化?

How to deal with multi class classification with SVM?

我不明白如何用 SVM 处理多重 class class化。我在互联网上找到的所有方法都是一对多的方法,仅适用于二进制 classification。但是,我的目标是:

print(target)

输出:

[ 0  0  0 ... 9 9 9] 

那么,如何正确处理 SVM 呢?我刚刚像那些例子一样构建了模型。但是,在我看来,这不是多标签 classification 的正确方法。请指导我。如果 SVM 根本不是一个好的选择,请建议我在随机森林、决策树、K 最近邻等(除了 NN 和 CNN,因为我有已经在我的数据集中用这两种算法实现了,我只需要再使用一种算法来比较我的结果)。到目前为止,我的编码:

X_train, X_test, y_train, y_test = train_test_split(data, target, test_size=0.2, random_state=42)

from sklearn.svm import SVC
model_svm = SVC(kernel='linear')
clf_svm = model_svm.fit(X_train,y_train)
y_svm = model_svm.predict(X_test)

from sklearn.metrics import accuracy_score
print('Accuracy of SVM: ', accuracy_score(y_svm, y_test))

你使用了线性内核,它只适用于线性边界:

model_svm = SVC(kernel='linear')

尝试使用,rbf 可用于大多数非线性边界并且非常有效。

model_svm = SVC(kernel='rbf')

参考:https://scikit-learn.org/stable/auto_examples/svm/plot_svm_kernels.html