堅牢な線形推定器のフィッティング

Beginner

This tutorial is from open-source community. Access the source code

はじめに

この実験では、Python の scikit - learn ライブラリを使って堅牢な線形推定器のフィッティングを行う方法を学びます。ゼロに近い値に対して 3 次の多項式で正弦関数をフィッティングさせ、さまざまな状況での堅牢なフィッティングをデモします。予測の品質を判断するために、中央絶対偏差を使って新しいデータをノイズ除去します。

VM のヒント

VM の起動が完了したら、左上隅をクリックしてノートブックタブに切り替え、Jupyter Notebook を使って練習します。

時々、Jupyter Notebook が読み込み終わるまで数秒待つ必要があります。Jupyter Notebook の制限により、操作の検証を自動化することはできません。

学習中に問題に遭遇した場合は、Labby にお問い合わせください。セッション後にフィードバックを提供してください。すぐに問題を解決いたします。

必要なライブラリをインポートしてデータを生成する

まず、必要なライブラリをインポートして、フィッティング用のデータを生成する必要があります。ノイズ付きの正弦関数を生成し、X と y の両方にエラーを導入することでデータを破損させます。

from matplotlib import pyplot as plt
import numpy as np

from sklearn.linear_model import (
    LinearRegression,
    TheilSenRegressor,
    RANSACRegressor,
    HuberRegressor,
)
from sklearn.metrics import mean_squared_error
from sklearn.preprocessing import PolynomialFeatures
from sklearn.pipeline import make_pipeline

np.random.seed(42)

X = np.random.normal(size=400)
y = np.sin(X)
## Make sure that it X is 2D
X = X[:, np.newaxis]

X_test = np.random.normal(size=200)
y_test = np.sin(X_test)
X_test = X_test[:, np.newaxis]

y_errors = y.copy()
y_errors[::3] = 3

X_errors = X.copy()
X_errors[::3] = 3

y_errors_large = y.copy()
y_errors_large[::3] = 10

X_errors_large = X.copy()
X_errors_large[::3] = 10

3 次の多項式で正弦関数をフィッティングさせる

ゼロに近い値に対して、3 次の多項式で正弦関数をフィッティングさせます。

x_plot = np.linspace(X.min(), X.max())

さまざまな状況での堅牢なフィッティングのデモ

ここでは、4 つの異なる推定器(OLS、Theil - Sen、RANSAC、および HuberRegressor)を使って、さまざまな状況での堅牢なフィッティングをデモします。

estimators = [
    ("OLS", LinearRegression()),
    ("Theil-Sen", TheilSenRegressor(random_state=42)),
    ("RANSAC", RANSACRegressor(random_state=42)),
    ("HuberRegressor", HuberRegressor()),
]
colors = {
    "OLS": "turquoise",
    "Theil-Sen": "gold",
    "RANSAC": "lightgreen",
    "HuberRegressor": "black",
}
linestyle = {"OLS": "-", "Theil-Sen": "-.", "RANSAC": "--", "HuberRegressor": "--"}
lw = 3

結果をプロットする

ここでは、さまざまな状況のそれぞれに対する結果をプロットします。

for title, this_X, this_y in [
    ("Modeling Errors Only", X, y),
    ("Corrupt X, Small Deviants", X_errors, y),
    ("Corrupt y, Small Deviants", X, y_errors),
    ("Corrupt X, Large Deviants", X_errors_large, y),
    ("Corrupt y, Large Deviants", X, y_errors_large),
]:
    plt.figure(figsize=(5, 4))
    plt.plot(this_X[:, 0], this_y, "b+")

    for name, estimator in estimators:
        model = make_pipeline(PolynomialFeatures(3), estimator)
        model.fit(this_X, this_y)
        mse = mean_squared_error(model.predict(X_test), y_test)
        y_plot = model.predict(x_plot[:, np.newaxis])
        plt.plot(
            x_plot,
            y_plot,
            color=colors[name],
            linestyle=linestyle[name],
            linewidth=lw,
            label="%s: error = %.3f" % (name, mse),
        )

    legend_title = "Error of Mean\nAbsolute Deviation\nto Non-corrupt Data"
    legend = plt.legend(
        loc="upper right", frameon=False, title=legend_title, prop=dict(size="x-small")
    )
    plt.xlim(-4, 10.2)
    plt.ylim(-2, 10.2)
    plt.title(title)
plt.show()

まとめ

この実験では、Python の scikit - learn ライブラリを使って堅牢な線形推定器のフィッティングを行う方法を学びました。ゼロに近い値に対して 3 次の多項式で正弦関数をフィッティングさせ、さまざまな状況での堅牢なフィッティングをデモしました。予測の品質を判断するために、非破損の新しいデータに対する中央絶対偏差を使用しました。