PCA中如何取n_components的值
How to take the value of n_components in PCA
我的问题是如何在PCA中获取n_components的值(n_components=?)。该项目的背景是使用机器学习算法来预测疾病的阶段。我正在使用 sklearn。
我项目中的例子:
PCA(n_components=0.95),准确率为0.72。它生成了 53 个新组件。
PCA(n_components=0.55),准确率为0.78。它生成了 5 个新组件。
svm_clf04 = SVC(kernel="linear", random_state=42)
start = time.process_time()
# Feature scaling
scaler = StandardScaler()
x_train_scaled = scaler.fit_transform(rfecv_forest01_x_train01)
# Dimension reduction
pca = PCA(n_components=0.95, svd_solver='full') # n_components
x_train_scaled_reduced = pca.fit_transform(x_train_scaled)
print (pca.explained_variance_ratio_)
print (pca.explained_variance_)
print ("Components:",pca.n_components_)
svm_clf04.fit(x_train_scaled_reduced, y_train01)
pred = cross_val_predict(svm_clf04, x_train_scaled_reduced, y_train01, cv=10)
print("Time: ", time.process_time() - start)
print(confusion_matrix(y_train01, pred))
print(classification_report(y_train01, pred))
对于explained variance,网上有人说0.95是最好的选择。但是如果我减少解释的方差,准确性就会提高。我该如何选择? 0.95 或更高准确度的解释方差。
我不确定您是否正确使用了 PCA。如果您查看文档,您会发现当求解器为 full
时它可以正确解释 0 和 1 之间的浮点值(我假设这是 scikit-learn
):
If 0 < n_components < 1 and svd_solver == 'full', select the number of components such that the amount of variance that needs to be explained is greater than the percentage specified by n_components.
同时默认求解器为auto
。我建议在明确指定 PCA(n_components=0.95, svd_solver='full')
的同时重新 运行 PCA
其次,0.95 不是“最佳选择”,我不确定为什么有人会建议它。 PCA 数量的选择取决于手头的问题,即如果你做 PCA 是为了能够绘制多维数据,那么你将只想留下 2 或 3 个 PCA;在大多数其他应用程序中,问题将定义您为简单起见准备放弃多少数据方差。
另一种选择是绘制 1、2、3...等 PCA 的组合解释方差,并选择图形形成 'kink' 的点,以便添加更多 PCA 几乎不会增加整体解释方差,即这个:
我的问题是如何在PCA中获取n_components的值(n_components=?)。该项目的背景是使用机器学习算法来预测疾病的阶段。我正在使用 sklearn。
我项目中的例子:
PCA(n_components=0.95),准确率为0.72。它生成了 53 个新组件。
PCA(n_components=0.55),准确率为0.78。它生成了 5 个新组件。
svm_clf04 = SVC(kernel="linear", random_state=42)
start = time.process_time()
# Feature scaling
scaler = StandardScaler()
x_train_scaled = scaler.fit_transform(rfecv_forest01_x_train01)
# Dimension reduction
pca = PCA(n_components=0.95, svd_solver='full') # n_components
x_train_scaled_reduced = pca.fit_transform(x_train_scaled)
print (pca.explained_variance_ratio_)
print (pca.explained_variance_)
print ("Components:",pca.n_components_)
svm_clf04.fit(x_train_scaled_reduced, y_train01)
pred = cross_val_predict(svm_clf04, x_train_scaled_reduced, y_train01, cv=10)
print("Time: ", time.process_time() - start)
print(confusion_matrix(y_train01, pred))
print(classification_report(y_train01, pred))
对于explained variance,网上有人说0.95是最好的选择。但是如果我减少解释的方差,准确性就会提高。我该如何选择? 0.95 或更高准确度的解释方差。
我不确定您是否正确使用了 PCA。如果您查看文档,您会发现当求解器为 full
时它可以正确解释 0 和 1 之间的浮点值(我假设这是 scikit-learn
):
If 0 < n_components < 1 and svd_solver == 'full', select the number of components such that the amount of variance that needs to be explained is greater than the percentage specified by n_components.
同时默认求解器为auto
。我建议在明确指定 PCA(n_components=0.95, svd_solver='full')
其次,0.95 不是“最佳选择”,我不确定为什么有人会建议它。 PCA 数量的选择取决于手头的问题,即如果你做 PCA 是为了能够绘制多维数据,那么你将只想留下 2 或 3 个 PCA;在大多数其他应用程序中,问题将定义您为简单起见准备放弃多少数据方差。
另一种选择是绘制 1、2、3...等 PCA 的组合解释方差,并选择图形形成 'kink' 的点,以便添加更多 PCA 几乎不会增加整体解释方差,即这个: