Сравнение оценщиков ковариации

Machine LearningMachine LearningBeginner
Практиковаться сейчас

This tutorial is from open-source community. Access the source code

💡 Этот учебник переведен с английского с помощью ИИ. Чтобы просмотреть оригинал, вы можете перейти на английский оригинал

Введение

Оценка ковариации является важной задачей в статистическом анализе. В этом лабораторном занятии мы сравним два метода оценки ковариации: Ledoit-Wolf и OAS. Мы будем использовать данные, распределенные нормально, для сравнения оцененного среднеквадратичного отклонения (MSE) этих двух методов.

Советы по использованию ВМ

После завершения запуска ВМ нажмите в верхнем левом углу, чтобы переключиться на вкладку Notebook и получить доступ к Jupyter Notebook для практики.

Иногда вам может потребоваться подождать несколько секунд, пока Jupyter Notebook загрузится. Валидация операций не может быть автоматизирована из-за ограничений Jupyter Notebook.

Если вы сталкиваетесь с проблемами во время обучения, не стесняйтесь обращаться к Labby. Оставьте отзыв после занятия, и мы оперативно решим проблему для вас.


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL sklearn(("Sklearn")) -.-> sklearn/AdvancedDataAnalysisandDimensionalityReductionGroup(["Advanced Data Analysis and Dimensionality Reduction"]) ml(("Machine Learning")) -.-> ml/FrameworkandSoftwareGroup(["Framework and Software"]) sklearn/AdvancedDataAnalysisandDimensionalityReductionGroup -.-> sklearn/covariance("Covariance Estimators") ml/FrameworkandSoftwareGroup -.-> ml/sklearn("scikit-learn") subgraph Lab Skills sklearn/covariance -.-> lab-49206{{"Сравнение оценщиков ковариации"}} ml/sklearn -.-> lab-49206{{"Сравнение оценщиков ковариации"}} end

Импорт библиотек

Во - первых, нам нужно импортировать необходимые библиотеки для этой лабораторной работы. Мы будем использовать numpy для численных вычислений, matplotlib для визуализации и scikit - learn для оценки ковариации.

import numpy as np
import matplotlib.pyplot as plt
from scipy.linalg import toeplitz, cholesky
from sklearn.covariance import LedoitWolf, OAS

Генерация данных

Далее мы сгенерируем данные, распределенные нормально, с матрицей ковариации, которая подчиняется процессу AR(1). Мы будем использовать функции toeplitz и cholesky из scipy.linalg для генерации матрицы ковариации.

np.random.seed(0)

n_features = 100
r = 0.1
real_cov = toeplitz(r ** np.arange(n_features))
coloring_matrix = cholesky(real_cov)

Вычисление MSE и коэффициента сжатия

Мы сравним методы Ledoit - Wolf и OAS, используя синтетические данные. Мы вычислим среднеквадратичную ошибку (MSE) и коэффициент сжатия обоих методов.

n_samples_range = np.arange(6, 31, 1)
repeat = 100
lw_mse = np.zeros((n_samples_range.size, repeat))
oa_mse = np.zeros((n_samples_range.size, repeat))
lw_shrinkage = np.zeros((n_samples_range.size, repeat))
oa_shrinkage = np.zeros((n_samples_range.size, repeat))

for i, n_samples in enumerate(n_samples_range):
    for j in range(repeat):
        X = np.dot(np.random.normal(size=(n_samples, n_features)), coloring_matrix.T)

        lw = LedoitWolf(store_precision=False, assume_centered=True)
        lw.fit(X)
        lw_mse[i, j] = lw.error_norm(real_cov, scaling=False)
        lw_shrinkage[i, j] = lw.shrinkage_

        oa = OAS(store_precision=False, assume_centered=True)
        oa.fit(X)
        oa_mse[i, j] = oa.error_norm(real_cov, scaling=False)
        oa_shrinkage[i, j] = oa.shrinkage_

Построение графиков результатов

Наконец, мы построим графики, чтобы сравнить MSE и коэффициент сжатия методов Ledoit - Wolf и OAS.

plt.subplot(2, 1, 1)
plt.errorbar(
    n_samples_range,
    lw_mse.mean(1),
    yerr=lw_mse.std(1),
    label="Ledoit-Wolf",
    color="navy",
    lw=2,
)
plt.errorbar(
    n_samples_range,
    oa_mse.mean(1),
    yerr=oa_mse.std(1),
    label="OAS",
    color="darkorange",
    lw=2,
)
plt.ylabel("Квадратичная ошибка")
plt.legend(loc="upper right")
plt.title("Сравнение оценщиков ковариации")
plt.xlim(5, 31)

plt.subplot(2, 1, 2)
plt.errorbar(
    n_samples_range,
    lw_shrinkage.mean(1),
    yerr=lw_shrinkage.std(1),
    label="Ledoit-Wolf",
    color="navy",
    lw=2,
)
plt.errorbar(
    n_samples_range,
    oa_shrinkage.mean(1),
    yerr=oa_shrinkage.std(1),
    label="OAS",
    color="darkorange",
    lw=2,
)
plt.xlabel("n_samples")
plt.ylabel("Коэффициент сжатия")
plt.legend(loc="lower right")
plt.ylim(plt.ylim()[0], 1.0 + (plt.ylim()[1] - plt.ylim()[0]) / 10.0)
plt.xlim(5, 31)

plt.show()

Резюме

В этой лабораторной работе мы сравнили методы Ledoit - Wolf и OAS для оценки ковариации, используя данные, распределенные нормально. Мы построили графики MSE и коэффициента сжатия обоих методов и обнаружили, что метод OAS имеет лучшую сходимость при предположении, что данные являются гауссовскими.