局所外れ値因子による新奇性検出

Machine LearningMachine LearningBeginner
今すぐ練習

This tutorial is from open-source community. Access the source code

💡 このチュートリアルは英語版からAIによって翻訳されています。原文を確認するには、 ここをクリックしてください

はじめに

この実験では、Local Outlier Factor (LOF) アルゴリズムを使用して新奇性検出を行います。LOF は、与えられたデータポイントの近傍に対する局所的な密度の逸脱を特定する教師なし異常検出手法です。この手法では、近傍のサンプルよりも大幅に密度が低いサンプルを外れ値とみなします。

VM のヒント

VM の起動が完了したら、左上隅をクリックして Notebook タブに切り替え、Jupyter Notebook を開いて練習を行ってください。

時には、Jupyter Notebook の読み込みが完了するまで数秒待つ必要がある場合があります。Jupyter Notebook の制限により、操作の検証を自動化することはできません。

学習中に問題が発生した場合は、いつでも Labby に質問してください。セッション終了後にフィードバックを提供していただければ、速やかに問題を解決します。


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL sklearn(("Sklearn")) -.-> sklearn/CoreModelsandAlgorithmsGroup(["Core Models and Algorithms"]) ml(("Machine Learning")) -.-> ml/FrameworkandSoftwareGroup(["Framework and Software"]) sklearn/CoreModelsandAlgorithmsGroup -.-> sklearn/neighbors("Nearest Neighbors") ml/FrameworkandSoftwareGroup -.-> ml/sklearn("scikit-learn") subgraph Lab Skills sklearn/neighbors -.-> lab-49200{{"局所外れ値因子による新奇性検出"}} ml/sklearn -.-> lab-49200{{"局所外れ値因子による新奇性検出"}} end

ライブラリのインポート

必要なライブラリをインポートして始めます。ここでは、scikit-learn、numpy、および matplotlib を使用します。

import numpy as np
import matplotlib.pyplot as plt
from sklearn.neighbors import LocalOutlierFactor

データの生成

numpy を使用して、トレーニング用、テスト用、および外れ値用のデータを生成します。100 個の通常のトレーニング観測値、20 個の通常のテスト観測値、および 20 個の異常な新奇観測値を生成します。

np.random.seed(42)

xx, yy = np.meshgrid(np.linspace(-5, 5, 500), np.linspace(-5, 5, 500))
X = 0.3 * np.random.randn(100, 2)
X_train = np.r_[X + 2, X - 2]
X = 0.3 * np.random.randn(20, 2)
X_test = np.r_[X + 2, X - 2]
X_outliers = np.random.uniform(low=-4, high=4, size=(20, 2))

モデルの訓練

ここでは、トレーニングデータを使用して LOF モデルを訓練します。近傍の数を 20、新奇性検出モードを有効にし、コンタミネーション率を 0.1 に設定します。

clf = LocalOutlierFactor(n_neighbors=20, novelty=True, contamination=0.1)
clf.fit(X_train)

モデルの評価

訓練済みのモデルをテストデータと外れ値データで評価します。predict メソッドを使用して、テストデータと外れ値データのラベルを予測します。その後、テストデータと外れ値データにおける誤りの数をカウントします。

y_pred_test = clf.predict(X_test)
y_pred_outliers = clf.predict(X_outliers)
n_error_test = y_pred_test[y_pred_test == -1].size
n_error_outliers = y_pred_outliers[y_pred_outliers == 1].size

結果の可視化

学習した境界線とともに、トレーニングデータ、テストデータ、および外れ値データをプロットすることで、結果を可視化します。また、テストデータと外れ値データにおける誤りの数も表示します。

Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()])
Z = Z.reshape(xx.shape)

plt.title("Novelty Detection with LOF")
plt.contourf(xx, yy, Z, levels=np.linspace(Z.min(), 0, 7), cmap=plt.cm.PuBu)
a = plt.contour(xx, yy, Z, levels=[0], linewidths=2, colors="darkred")
plt.contourf(xx, yy, Z, levels=[0, Z.max()], colors="palevioletred")

s = 40
b1 = plt.scatter(X_train[:, 0], X_train[:, 1], c="white", s=s, edgecolors="k")
b2 = plt.scatter(X_test[:, 0], X_test[:, 1], c="blueviolet", s=s, edgecolors="k")
c = plt.scatter(X_outliers[:, 0], X_outliers[:, 1], c="gold", s=s, edgecolors="k")
plt.axis("tight")
plt.xlim((-5, 5))
plt.ylim((-5, 5))
plt.legend(
    [a.collections[0], b1, b2, c],
    [
        "learned frontier",
        "training observations",
        "new regular observations",
        "new abnormal observations",
    ],
    loc="upper left",
    prop=matplotlib.font_manager.FontProperties(size=11),
)
plt.xlabel(
    "errors novel regular: %d/40 ; errors novel abnormal: %d/40"
    % (n_error_test, n_error_outliers)
)
plt.show()

まとめ

この実験では、局所外れ値因子 (Local Outlier Factor, LOF) アルゴリズムを使用して新奇性検出を行いました。トレーニング用、テスト用、および外れ値用のデータを生成し、LOF モデルを訓練し、モデルを評価し、結果を可視化しました。