はじめに
この実験では、Iris データセットに対して次元削減を行うために、増分主成分分析 (IPCA) アルゴリズムを使う手順を段階的に案内します。IPCA は、データセットがメモリに収まらないほど大きく、増分的なアプローチが必要な場合に使用されます。IPCA の結果を、従来の PCA アルゴリズムと比較します。
VM のヒント
VM の起動が完了したら、左上隅をクリックして ノートブック タブに切り替え、Jupyter Notebook を使って練習しましょう。
時々、Jupyter Notebook が読み込み終わるまで数秒待つ必要があります。Jupyter Notebook の制限により、操作の検証を自動化することはできません。
学習中に問題に直面した場合は、Labby にお尋ねください。セッション後にフィードバックを提供してください。すぐに問題を解決いたします。
ライブラリのインポート
numpy、matplotlib、および scikit-learn の PCA と IPCA モジュールを含む必要なライブラリをインポートします。
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import load_iris
from sklearn.decomposition import PCA, IncrementalPCA
データの読み込み
scikit-learn のデータセットモジュールから Iris データセットを読み込みます。
iris = load_iris()
X = iris.data
y = iris.target
IPCA を実行する
IPCA クラスのインスタンスを初期化し、データに適合させることで、Iris データセットに対して IPCA を実行します。
n_components = 2
ipca = IncrementalPCA(n_components=n_components, batch_size=10)
X_ipca = ipca.fit_transform(X)
PCA を実行する
PCA クラスのインスタンスを初期化し、データに適合させることで、Iris データセットに対して PCA を実行します。
pca = PCA(n_components=n_components)
X_pca = pca.fit_transform(X)
結果の可視化
変換後のデータを散布図にプロットすることで、IPCA と PCA の結果を可視化します。
colors = ["navy", "turquoise", "darkorange"]
for X_transformed, title in [(X_ipca, "Incremental PCA"), (X_pca, "PCA")]:
plt.figure(figsize=(8, 8))
for color, i, target_name in zip(colors, [0, 1, 2], iris.target_names):
plt.scatter(
X_transformed[y == i, 0],
X_transformed[y == i, 1],
color=color,
lw=2,
label=target_name,
)
if "Incremental" in title:
err = np.abs(np.abs(X_pca) - np.abs(X_ipca)).mean()
plt.title(title + " of iris dataset\nMean absolute unsigned error %.6f" % err)
else:
plt.title(title + " of iris dataset")
plt.legend(loc="best", shadow=False, scatterpoints=1)
plt.axis([-4, 4, -1.5, 1.5])
plt.show()
まとめ
この実験では、Iris データセットに対して次元削減を行うために、インクリメンタル主成分分析 (IPCA) アルゴリズムをどのように使用するかを学びました。IPCA の結果を従来の PCA と比較し、変換後のデータを散布図に可視化しました。IPCA は、データセットがメモリに収まらないほど大きく、インクリメンタルなアプローチが必要な場合に役立ちます。