Линейный дискриминантный анализ для классификации

Machine LearningMachine LearningBeginner
Практиковаться сейчас

This tutorial is from open-source community. Access the source code

💡 Этот учебник переведен с английского с помощью ИИ. Чтобы просмотреть оригинал, вы можете перейти на английский оригинал

Введение

В этом практическом занятии мы познакомим вас с Линейным Дискриминантным Анализом (LDA) и покажем, как он может быть использован для классификации. Мы будем использовать scikit-learn, популярную библиотеку машинного обучения для Python, для реализации LDA. Также мы исследуем, как оценщики ковариации Ледоита-Вольфа и аппроксимации Оркле (OAS) могут улучшить классификацию.

Советы по использованию ВМ

После запуска виртуальной машины нажмите в левом верхнем углу, чтобы переключиться на вкладку Ноутбук, чтобы получить доступ к Jupyter Notebook для практики.

Иногда вам может потребоваться подождать несколько секунд, пока Jupyter Notebook не загрузится полностью. Валидация операций не может быть автоматизирована из-за ограничений в Jupyter Notebook.

Если вы сталкиваетесь с проблемами во время обучения, не стесняйтесь обращаться к Лабби. Оставьте отзыв после занятия, и мы оперативно решим проблему для вас.


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL ml(("Machine Learning")) -.-> ml/FrameworkandSoftwareGroup(["Framework and Software"]) sklearn(("Sklearn")) -.-> sklearn/CoreModelsandAlgorithmsGroup(["Core Models and Algorithms"]) sklearn(("Sklearn")) -.-> sklearn/AdvancedDataAnalysisandDimensionalityReductionGroup(["Advanced Data Analysis and Dimensionality Reduction"]) sklearn(("Sklearn")) -.-> sklearn/UtilitiesandDatasetsGroup(["Utilities and Datasets"]) sklearn/CoreModelsandAlgorithmsGroup -.-> sklearn/discriminant_analysis("Discriminant Analysis") sklearn/AdvancedDataAnalysisandDimensionalityReductionGroup -.-> sklearn/covariance("Covariance Estimators") sklearn/UtilitiesandDatasetsGroup -.-> sklearn/datasets("Datasets") ml/FrameworkandSoftwareGroup -.-> ml/sklearn("scikit-learn") subgraph Lab Skills sklearn/discriminant_analysis -.-> lab-49194{{"Линейный дискриминантный анализ для классификации"}} sklearn/covariance -.-> lab-49194{{"Линейный дискриминантный анализ для классификации"}} sklearn/datasets -.-> lab-49194{{"Линейный дискриминантный анализ для классификации"}} ml/sklearn -.-> lab-49194{{"Линейный дискриминантный анализ для классификации"}} end

Генерация случайных данных

Во - первых, нам нужно сгенерировать случайные данные с дискриминативной характеристикой и шумовыми характеристиками. Мы будем использовать функцию make_blobs из scikit - learn для генерации двух кластеров данных с одной дискриминативной характеристикой. Затем мы добавим случайный шум к другим характеристикам.

import numpy as np
from sklearn.datasets import make_blobs

def generate_data(n_samples, n_features):
    """Generate random blob-ish data with noisy features.

    This returns an array of input data with shape `(n_samples, n_features)`
    and an array of `n_samples` target labels.

    Only one feature contains discriminative information, the other features
    contain only noise.
    """
    X, y = make_blobs(n_samples=n_samples, n_features=1, centers=[[-2], [2]])

    ## add non-discriminative features
    if n_features > 1:
        X = np.hstack([X, np.random.randn(n_samples, n_features - 1)])
    return X, y

Реализация LDA

Далее мы реализуем LDA с использованием класса LinearDiscriminantAnalysis из scikit - learn. Мы создадим три классификатора:

  • LDA без сжатия
  • LDA с сжатием Ледоита-Вольфа
  • LDA с сжатием OAS
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
from sklearn.covariance import OAS

clf1 = LinearDiscriminantAnalysis(solver="lsqr", shrinkage=None)
clf2 = LinearDiscriminantAnalysis(solver="lsqr", shrinkage="auto")
oa = OAS(store_precision=False, assume_centered=False)
clf3 = LinearDiscriminantAnalysis(solver="lsqr", covariance_estimator=oa)

Обучение и тестирование классификаторов

Мы обучим и протестируем каждый классификатор, чтобы увидеть, как они работают на сгенерированных данных. Мы повторим этот процесс несколько раз, чтобы получить среднюю оценку точности.

n_train = 20  ## samples for training
n_test = 200  ## samples for testing
n_averages = 50  ## how often to repeat classification
n_features_max = 75  ## maximum number of features
step = 4  ## step size for the calculation

acc_clf1, acc_clf2, acc_clf3 = [], [], []
n_features_range = range(1, n_features_max + 1, step)

for n_features in n_features_range:
    score_clf1, score_clf2, score_clf3 = 0, 0, 0
    for _ in range(n_averages):
        X, y = generate_data(n_train, n_features)

        clf1.fit(X, y)
        clf2.fit(X, y)
        clf3.fit(X, y)

        X, y = generate_data(n_test, n_features)
        score_clf1 += clf1.score(X, y)
        score_clf2 += clf2.score(X, y)
        score_clf3 += clf3.score(X, y)

    acc_clf1.append(score_clf1 / n_averages)
    acc_clf2.append(score_clf2 / n_averages)
    acc_clf3.append(score_clf3 / n_averages)

Визуализация результатов

Наконец, мы построим график точности классификации для каждого классификатора в зависимости от числа признаков. Для создания графика мы будем использовать matplotlib.

import matplotlib.pyplot as plt

features_samples_ratio = np.array(n_features_range) / n_train

plt.plot(
    features_samples_ratio,
    acc_clf1,
    linewidth=2,
    label="LDA",
    color="gold",
    linestyle="solid",
)
plt.plot(
    features_samples_ratio,
    acc_clf2,
    linewidth=2,
    label="LDA with Ledoit Wolf",
    color="navy",
    linestyle="dashed",
)
plt.plot(
    features_samples_ratio,
    acc_clf3,
    linewidth=2,
    label="LDA with OAS",
    color="red",
    linestyle="dotted",
)

plt.xlabel("n_features / n_samples")
plt.ylabel("Classification accuracy")

plt.legend(loc="lower left")
plt.ylim((0.65, 1.0))
plt.suptitle(
    "LDA (Linear Discriminant Analysis) vs. "
    + "\n"
    + "LDA with Ledoit Wolf vs. "
    + "\n"
    + "LDA with OAS (1 discriminative feature)"
)
plt.show()

Резюме

В этом практическом занятии мы научились реализовывать Линейный Дискриминантный Анализ (LDA) с использованием scikit - learn. Мы изучили, как оценщики ковариации Ледоита-Вольфа и Oracle Shrinkage Approximating (OAS) могут улучшить точность классификации. Мы также сгенерировали случайные данные с дискриминативной характеристикой и протестировали наши классификаторы на этих данных. Наконец, мы визуализировали точность классификации в зависимости от числа признаков.