はじめに
この実験では、カスタムカーネルを使用してサンプルを分類するためのサポートベクターマシン (SVM) の使い方を学びます。Python の scikit-learn ライブラリを使用して、カスタムカーネルを使った SVM 分類を行います。SVM は、分類、回帰、およびアウトライア検出に使用される人気のある機械学習アルゴリズムです。SVM は、データをクラスに分離する境界または線 (ハイパープレーン) を作成することによって機能します。
VM のヒント
VM の起動が完了したら、左上隅をクリックして ノートブック タブに切り替えて、Jupyter Notebook を使って練習しましょう。
Jupyter Notebook の読み込みには数秒かかる場合があります。Jupyter Notebook の制限により、操作の検証を自動化することはできません。
学習中に問題がある場合は、Labby にお問い合わせください。セッション後にフィードバックを提供してください。すぐに問題を解決いたします。
ライブラリのインポート
このステップでは、この実験に必要なライブラリをインポートします。numpy、matplotlib、scikit-learn、および DecisionBoundaryDisplay を使用します。
import numpy as np
import matplotlib.pyplot as plt
from sklearn import svm, datasets
from sklearn.inspection import DecisionBoundaryDisplay
データの読み込み
このステップでは、scikit-learn の datasets モジュールを使って iris データセットを読み込みます。データセットの最初の 2 つの特徴量を選択して変数 X に割り当てます。また、目的変数を Y に割り当てます。
iris = datasets.load_iris()
X = iris.data[:, :2]
Y = iris.target
カスタムカーネルの作成
このステップでは、カスタムカーネルを作成します。カスタムカーネルは 2 つの行列の内積になります。値 [[2, 0], [0, 1.0]] の行列 M を作成します。その後、行列 X と Y に M を掛けて内積を求めます。
def my_kernel(X, Y):
"""
カスタムカーネルを作成します。
(2 0)
k(X, Y) = X ( ) Y.T
(0 1)
"""
M = np.array([[2, 0], [0, 1.0]])
return np.dot(np.dot(X, M), Y.T)
SVM 分類器の作成
このステップでは、SVM 分類器のインスタンスを作成してデータに適合させます。前のステップで作成したカスタムカーネルを使用します。
clf = svm.SVC(kernel=my_kernel)
clf.fit(X, Y)
決定境界の描画
このステップでは、決定面とサポートベクトルを描画します。scikit-learn の inspection モジュールから DecisionBoundaryDisplay モジュールを使って決定境界を描画します。また、訓練ポイントを散布図で描画します。
ax = plt.gca()
DecisionBoundaryDisplay.from_estimator(
clf,
X,
cmap=plt.cm.Paired,
ax=ax,
response_method="predict",
plot_method="pcolormesh",
shading="auto",
)
plt.scatter(X[:, 0], X[:, 1], c=Y, cmap=plt.cm.Paired, edgecolors="k")
plt.title("3-Class classification using Support Vector Machine with custom kernel")
plt.axis("tight")
plt.show()
まとめ
この実験では、カスタムカーネルを使ってサンプルを分類するためにサポートベクターマシン (SVM) をどのように使用するか学びました。scikit-learn ライブラリを使ってカスタムカーネルを持つ SVM 分類を行いました。iris データセットを読み込み、カスタムカーネルを作成し、SVM 分類器のインスタンスを作成してデータに適合させ、決定境界とサポートベクターを描画しました。SVM は、分類、回帰、およびアウトライア検出に使用される人気のある機械学習アルゴリズムです。