はじめに
このチュートリアルでは、Theil-Sen 回帰と Python の scikit-learn ライブラリを使ったその実装について学びます。また、通常最小二乗法(OLS)やロバストなランダムサンプルコンセンサス(RANSAC)回帰とどのように異なるかも見てみましょう。
VM のヒント
VM の起動が完了したら、左上隅をクリックしてノートブックタブに切り替え、Jupyter Notebook を使って練習しましょう。
時々、Jupyter Notebook が読み込み終わるまで数秒待つ必要がある場合があります。Jupyter Notebook の制限により、操作の検証を自動化することはできません。
学習中に問題に遭遇した場合は、Labby にお問い合わせください。セッション後にフィードバックを提供してください。すぐに問題を解決いたします。
ライブラリのインポートとデータセットの生成
まず、必要なライブラリをインポートして、回帰分析用の合成データセットを生成しましょう。
import time
import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression, TheilSenRegressor
from sklearn.linear_model import RANSACRegressor
np.random.seed(0)
n_samples = 200
x = np.random.randn(n_samples)
w = 3.0
c = 2.0
noise = 0.1 * np.random.randn(n_samples)
y = w * x + c + noise
X = x[:, np.newaxis]
データのプロット
次に、生成したデータセットをプロットしましょう。
plt.scatter(x, y, color="indigo", marker="x", s=40)
plt.axis("tight")
_ = plt.title("Original Data")
線形回帰モデルのフィット
次に、OLS、Theil-Sen、および RANSAC 手法を使って 3 つの線形回帰モデルをフィットさせます。
estimators = [
("OLS", LinearRegression()),
("Theil-Sen", TheilSenRegressor(random_state=42)),
("RANSAC", RANSACRegressor(random_state=42)),
]
colors = {"OLS": "turquoise", "Theil-Sen": "gold", "RANSAC": "lightgreen"}
lw = 2
line_x = np.array([-3, 3])
for name, estimator in estimators:
t0 = time.time()
estimator.fit(X, y)
elapsed_time = time.time() - t0
y_pred = estimator.predict(line_x.reshape(2, 1))
plt.plot(
line_x,
y_pred,
color=colors[name],
linewidth=lw,
label="%s (fit time: %.2fs)" % (name, elapsed_time),
)
回帰直線のプロット
最後に、フィットさせたモデルの回帰直線をプロットします。
plt.axis("tight")
plt.legend(loc="upper left")
_ = plt.title("Regression Lines")
まとめ
このチュートリアルでは、Theil-Sen 回帰と Python の scikit-learn ライブラリを使ったその実装方法について学びました。また、通常最小二乗法(OLS)やロバストなランダムサンプルコンセンサス(RANSAC)回帰とどのように異なるかも見ました。上記の手順に従うことで、合成データセットを生成し、線形回帰モデルをフィットさせ、回帰直線をプロットすることができました。