微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如何在 PCA 中取 n_components 的值

如何解决如何在 PCA 中取 n_components 的值

我的问题是如何在 PCA (n_components=?) 中取 n_components 的值。该项目的背景是使用机器学习算法来预测疾病的阶段。我正在使用 sklearn。

我的项目中的示例:
PCA(n_components=0.95),准确率为0.72。它生成了 53 个新组件。
PCA(n_components=0.55),准确率为0.78。它生成了 5 个新组件。

svm_clf04 = SVC(kernel="linear",random_state=42)
start = time.process_time()

# Feature scaling
scaler = StandardScaler()
x_train_scaled = scaler.fit_transform(rfecv_forest01_x_train01)

# Dimension reduction
pca = PCA(n_components=0.95,svd_solver='full')  # n_components
x_train_scaled_reduced = pca.fit_transform(x_train_scaled)

print (pca.explained_variance_ratio_)
print (pca.explained_variance_)
print ("Components:",pca.n_components_)

svm_clf04.fit(x_train_scaled_reduced,y_train01)


pred = cross_val_predict(svm_clf04,x_train_scaled_reduced,y_train01,cv=10)


print("Time: ",time.process_time() - start)
print(confusion_matrix(y_train01,pred))
print(classification_report(y_train01,pred))

对于解释方差,网上有人说0.95是最好的选择。但是如果我减少解释方差,准确度就会提高。我应该如何选择? 0.95 或更高准确度的解释方差。

解决方法

我不确定您是否正确使用 PCA。如果您查看文档,您会发现当求解器为 full 时,它可以正确解释 0 和 1 之间的浮点值(我假设这是 scikit-learn):

如果 0

同时默认求解器是 auto。我建议在明确指定 PCA(n_components=0.95,svd_solver='full')

的同时重新运行 PCA

其次,0.95 不是“最佳选择”,我不确定为什么有人会建议它。 PCA 数量的选择取决于手头的问题,即如果您进行 PCA 以能够绘制多维数据,那么您将只想留下 2 或 3 个 PCA;在大多数其他应用中,该问题将定义为简单起见您准备放弃多少数据方差。

另一个选项是绘制 1、2、3...等 PCA 的组合解释方差,并选择图形形成“扭结”的点,以便添加更多 PCA 几乎不会增加整体解释方差,即像这样:>

enter image description here

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。