Построить сравнение PCA и LDA

Machine LearningMachine LearningBeginner
Практиковаться сейчас

This tutorial is from open-source community. Access the source code

💡 Этот учебник переведен с английского с помощью ИИ. Чтобы просмотреть оригинал, вы можете перейти на английский оригинал

Введение

В этом лабораторном задании мы сравним производительность двух популярных алгоритмов понижения размерности: Principal Component Analysis (PCA) и Linear Discriminant Analysis (LDA), на наборе данных Iris. Набор данных Iris содержит 3 типа ирисных цветов с 4 атрибутами: длина чашелистика, ширина чашелистика, длина лепестка и ширина лепестка.

Советы по работе с ВМ

После запуска ВМ нажмите в левом верхнем углу, чтобы переключиться на вкладку Notebook и получить доступ к Jupyter Notebook для практики.

Иногда вам может потребоваться подождать несколько секунд, пока Jupyter Notebook не загрузится полностью. Валидация операций не может быть автоматизирована из-за ограничений Jupyter Notebook.

Если вы сталкиваетесь с проблемами во время обучения, не стесняйтесь обращаться к Labby. Оставьте отзыв после занятия, и мы оперативно решим проблему для вас.


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL sklearn(("Sklearn")) -.-> sklearn/CoreModelsandAlgorithmsGroup(["Core Models and Algorithms"]) sklearn(("Sklearn")) -.-> sklearn/AdvancedDataAnalysisandDimensionalityReductionGroup(["Advanced Data Analysis and Dimensionality Reduction"]) ml(("Machine Learning")) -.-> ml/FrameworkandSoftwareGroup(["Framework and Software"]) sklearn/CoreModelsandAlgorithmsGroup -.-> sklearn/discriminant_analysis("Discriminant Analysis") sklearn/AdvancedDataAnalysisandDimensionalityReductionGroup -.-> sklearn/decomposition("Matrix Decomposition") ml/FrameworkandSoftwareGroup -.-> ml/sklearn("scikit-learn") subgraph Lab Skills sklearn/discriminant_analysis -.-> lab-49242{{"Построить сравнение PCA и LDA"}} sklearn/decomposition -.-> lab-49242{{"Построить сравнение PCA и LDA"}} ml/sklearn -.-> lab-49242{{"Построить сравнение PCA и LDA"}} end

Загрузка набора данных

Сначала нам нужно загрузить набор данных Iris с использованием встроенной функции load_iris() из scikit - learn.

import matplotlib.pyplot as plt
from sklearn import datasets

iris = datasets.load_iris()

X = iris.data
y = iris.target
target_names = iris.target_names

Выполнить PCA

Далее мы выполним Анализ главных компонент (PCA) для набора данных, чтобы определить комбинацию атрибутов, которая объясняет наибольшую вариацию в данных. Мы построим различные образцы на первых двух главных компонентах.

from sklearn.decomposition import PCA

pca = PCA(n_components=2)
X_r = pca.fit(X).transform(X)

## Percentage of variance explained for each component
print("Explained variance ratio (first two components): %s" % str(pca.explained_variance_ratio_))

plt.figure()
colors = ["navy", "turquoise", "darkorange"]
lw = 2

for color, i, target_name in zip(colors, [0, 1, 2], target_names):
    plt.scatter(X_r[y == i, 0], X_r[y == i, 1], color=color, alpha=0.8, lw=lw, label=target_name)

plt.legend(loc="best", shadow=False, scatterpoints=1)
plt.title("PCA of Iris Dataset")
plt.show()

Выполнить LDA

Теперь мы выполним Линейный дискриминантный анализ (LDA) для набора данных, чтобы определить атрибуты, которые объясняют наибольшую вариацию между классами. В отличие от PCA, LDA - это метод обучения с учителем, который использует известные метки классов.

from sklearn.discriminant_analysis import LinearDiscriminantAnalysis

lda = LinearDiscriminantAnalysis(n_components=2)
X_r2 = lda.fit(X, y).transform(X)

plt.figure()
for color, i, target_name in zip(colors, [0, 1, 2], target_names):
    plt.scatter(X_r2[y == i, 0], X_r2[y == i, 1], alpha=0.8, color=color, label=target_name)

plt.legend(loc="best", shadow=False, scatterpoints=1)
plt.title("LDA of Iris Dataset")
plt.show()

Сравнить результаты

Наконец, мы сравним результаты PCA и LDA. Мы можем увидеть, что LDA показывает лучшие результаты по сравнению с PCA при разделении трех классов в наборе данных Iris.

Резюме

В этом практическом занятии мы узнали, как выполнить Анализ главных компонент (PCA) и Линейный дискриминантный анализ (LDA) для набора данных Iris с использованием scikit - learn. Мы также сравнили производительность этих двух алгоритмов по снижению размерности и обнаружили, что LDA показывает лучшие результаты по сравнению с PCA при разделении различных классов в наборе данных.