新奇検出のための 1 クラス SVM

Machine LearningMachine LearningBeginner
今すぐ練習

This tutorial is from open-source community. Access the source code

💡 このチュートリアルは英語版からAIによって翻訳されています。原文を確認するには、 ここをクリックしてください

はじめに

この実験では、ノベルティ検出に1クラスSVMを使用する例を通じて案内します。1クラスSVMは、ノベルティ検出のための決定関数を学習する非監督学習アルゴリズムです。つまり、新しいデータを学習セットと同じか異なるかに分類します。

VMのヒント

VMの起動が完了したら、左上隅をクリックしてノートブックタブに切り替え、Jupyter Notebookを使って練習しましょう。

時々、Jupyter Notebookが読み込み完了するまで数秒待つ必要があります。Jupyter Notebookの制限により、操作の検証を自動化することはできません。

学習中に問題に直面した場合は、Labbyにお問い合わせください。セッション後にフィードバックを提供してください。そうすれば、迅速に問題を解決します。


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL ml(("Machine Learning")) -.-> ml/FrameworkandSoftwareGroup(["Framework and Software"]) ml/FrameworkandSoftwareGroup -.-> ml/sklearn("scikit-learn") subgraph Lab Skills ml/sklearn -.-> lab-49233{{"新奇検出のための 1 クラス SVM"}} end

必要なライブラリをインポートしてデータを生成する

最初のステップは、必要なライブラリをインポートしてデータを生成することです。データの生成と可視化にはnumpyとmatplotlibを、1クラスSVMモデルを構築するためにscikit - learnを使用します。

import numpy as np
import matplotlib.pyplot as plt
from sklearn import svm

## 学習用データを生成する
X = 0.3 * np.random.randn(100, 2)
X_train = np.r_[X + 2, X - 2]

## いくつかの通常の新奇な観測値を生成する
X = 0.3 * np.random.randn(20, 2)
X_test = np.r_[X + 2, X - 2]

## いくつかの異常な新奇な観測値を生成する
X_outliers = np.random.uniform(low=-4, high=4, size=(20, 2))

1クラスSVMモデルをフィットさせる

次に、生成したデータに1クラスSVMモデルをフィットさせます。

## モデルをフィットさせる
clf = svm.OneClassSVM(nu=0.1, kernel="rbf", gamma=0.1)
clf.fit(X_train)

## 学習データ、通常の新奇な観測値、および異常な新奇な観測値に対するラベルを予測する
y_pred_train = clf.predict(X_train)
y_pred_test = clf.predict(X_test)
y_pred_outliers = clf.predict(X_outliers)

エラーの数を計算する

学習データ、通常の新奇な観測値、および異常な新奇な観測値に対して、モデルが犯すエラーの数を計算します。

## エラーの数をカウントする
n_error_train = y_pred_train[y_pred_train == -1].size
n_error_test = y_pred_test[y_pred_test == -1].size
n_error_outliers = y_pred_outliers[y_pred_outliers == 1].size

結果を可視化する

最後に、1クラスSVMモデルの結果を可視化します。決定境界、学習データ、通常の新奇な観測値、および異常な新奇な観測値をプロットします。

## 結果を可視化する
xx, yy = np.meshgrid(np.linspace(-5, 5, 500), np.linspace(-5, 5, 500))
Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()])
Z = Z.reshape(xx.shape)

plt.title("Novelty Detection")
plt.contourf(xx, yy, Z, levels=np.linspace(Z.min(), 0, 7), cmap=plt.cm.PuBu)
a = plt.contour(xx, yy, Z, levels=[0], linewidths=2, colors="darkred")
plt.contourf(xx, yy, Z, levels=[0, Z.max()], colors="palevioletred")

s = 40
b1 = plt.scatter(X_train[:, 0], X_train[:, 1], c="white", s=s, edgecolors="k")
b2 = plt.scatter(X_test[:, 0], X_test[:, 1], c="blueviolet", s=s, edgecolors="k")
c = plt.scatter(X_outliers[:, 0], X_outliers[:, 1], c="gold", s=s, edgecolors="k")
plt.axis("tight")
plt.xlim((-5, 5))
plt.ylim((-5, 5))
plt.legend(
    [a.collections[0], b1, b2, c],
    [
        "学習済みの境界",
        "学習観測値",
        "新しい通常の観測値",
        "新しい異常な観測値"
    ],
    loc="upper left",
    prop=matplotlib.font_manager.FontProperties(size=11)
)
plt.xlabel(
    "エラー トレーニング: %d/200 ; エラー 新奇な通常: %d/40 ; エラー 新奇な異常: %d/40"
    % (n_error_train, n_error_test, n_error_outliers)
)
plt.show()

まとめ

この実験では、新奇検出に1クラスSVMをどのように使用するかを学びました。データを生成し、1クラスSVMモデルをフィットさせ、エラーの数を計算し、結果を可視化しました。1クラスSVMは、データ内の異常を検出するための便利なアルゴリズムであり、幅広いアプリケーションに適用できます。