绘制主成分分析(PCA)与线性判别分析(LDA)对比图

Beginner

This tutorial is from open-source community. Access the source code

简介

在本实验中,我们将比较两种流行的降维算法——主成分分析(PCA)和线性判别分析(LDA)——在鸢尾花数据集上的性能。鸢尾花数据集包含 3 种鸢尾花,具有 4 个属性:萼片长度、萼片宽度、花瓣长度和花瓣宽度。

虚拟机使用提示

虚拟机启动完成后,点击左上角切换到笔记本标签页,以访问 Jupyter Notebook 进行练习。

有时,你可能需要等待几秒钟让 Jupyter Notebook 完成加载。由于 Jupyter Notebook 的限制,操作验证无法自动化。

如果你在学习过程中遇到问题,随时向 Labby 提问。课程结束后提供反馈,我们会及时为你解决问题。

加载数据集

首先,我们需要使用 scikit-learn 的内置函数load_iris()来加载鸢尾花数据集。

import matplotlib.pyplot as plt
from sklearn import datasets

iris = datasets.load_iris()

X = iris.data
y = iris.target
target_names = iris.target_names

执行主成分分析(PCA)

接下来,我们将对数据集执行主成分分析(PCA),以确定能够解释数据中最大方差的属性组合。我们将在前两个主成分上绘制不同的样本。

from sklearn.decomposition import PCA

pca = PCA(n_components=2)
X_r = pca.fit(X).transform(X)

## 每个成分解释的方差百分比
print("解释的方差比例(前两个成分):%s" % str(pca.explained_variance_ratio_))

plt.figure()
colors = ["navy", "turquoise", "darkorange"]
lw = 2

for color, i, target_name in zip(colors, [0, 1, 2], target_names):
    plt.scatter(X_r[y == i, 0], X_r[y == i, 1], color=color, alpha=0.8, lw=lw, label=target_name)

plt.legend(loc="best", shadow=False, scatterpoints=1)
plt.title("鸢尾花数据集的 PCA")
plt.show()

执行线性判别分析(LDA)

现在,我们将对数据集执行线性判别分析(LDA),以识别能够解释类别之间最大方差的属性。与主成分分析(PCA)不同,LDA 是一种使用已知类别标签的监督方法。

from sklearn.discriminant_analysis import LinearDiscriminantAnalysis

lda = LinearDiscriminantAnalysis(n_components=2)
X_r2 = lda.fit(X, y).transform(X)

plt.figure()
for color, i, target_name in zip(colors, [0, 1, 2], target_names):
    plt.scatter(X_r2[y == i, 0], X_r2[y == i, 1], alpha=0.8, color=color, label=target_name)

plt.legend(loc="best", shadow=False, scatterpoints=1)
plt.title("鸢尾花数据集的 LDA")
plt.show()

比较结果

最后,我们将比较主成分分析(PCA)和线性判别分析(LDA)的结果。我们可以看到,在鸢尾花数据集中分离这三个类别时,线性判别分析(LDA)比主成分分析(PCA)表现得更好。

总结

在这个实验中,我们学习了如何使用 scikit-learn 对鸢尾花数据集执行主成分分析(PCA)和线性判别分析(LDA)。我们还比较了这两种降维算法的性能,发现在线性判别分析(LDA)在分离数据集中的不同类别方面比主成分分析(PCA)表现更好。