はじめに
クラスタリングは、データポイントの特徴に基づいて類似するデータポイントをグループ化する人気のある教師なし学習手法です。シルエット法は、データセットにおける最適なクラスタ数を決定するために一般的に使用される手法です。この実験では、KMeans アルゴリズムを使用してシルエット法を使って最適なクラスタ数を決定します。
VM のヒント
VM の起動が完了したら、左上隅をクリックして ノートブック タブに切り替えて、Jupyter Notebook を使った練習にアクセスします。
時々、Jupyter Notebook が読み込み終わるまで数秒待つ必要がある場合があります。Jupyter Notebook の制限により、操作の検証を自動化することはできません。
学習中に問題に直面した場合は、Labby にお尋ねください。セッション後にフィードバックを提供してください。私たちは迅速に問題を解決いたします。
ライブラリのインポート
分析を実行するために必要なライブラリをインポートして始めましょう。
from sklearn.datasets import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import silhouette_samples, silhouette_score
import matplotlib.pyplot as plt
import matplotlib.cm as cm
import numpy as np
データの生成
sklearn.datasets ライブラリの make_blobs 関数を使ってサンプルデータを生成します。この関数は、クラスタリング用の等方性ガウスブロブを生成します。
X, y = make_blobs(
n_samples=500,
n_features=2,
centers=4,
cluster_std=1,
center_box=(-10.0, 10.0),
shuffle=True,
random_state=1,
) ## For reproducibility
最適なクラスタ数を決定する
KMeans アルゴリズムの最適なクラスタ数を決定するために、シルエット法を使用します。n_clusters の値の範囲を反復し、各値に対するシルエットスコアをプロットします。
range_n_clusters = [2, 3, 4, 5, 6]
for n_clusters in range_n_clusters:
## 1 行 2 列のサブプロットを作成
fig, (ax1, ax2) = plt.subplots(1, 2)
fig.set_size_inches(18, 7)
## 1 つ目のサブプロットはシルエットプロット
ax1.set_xlim([-0.1, 1])
ax1.set_ylim([0, len(X) + (n_clusters + 1) * 10])
## 再現性のために、n_clusters の値と乱数生成器のシード値 10 でクラスタリングアルゴリズムを初期化
clusterer = KMeans(n_clusters=n_clusters, n_init="auto", random_state=10)
cluster_labels = clusterer.fit_predict(X)
## silhouette_score はすべてのサンプルの平均値を返す
silhouette_avg = silhouette_score(X, cluster_labels)
## 各サンプルのシルエットスコアを計算
sample_silhouette_values = silhouette_samples(X, cluster_labels)
y_lower = 10
for i in range(n_clusters):
## クラスタ i に属するサンプルのシルエットスコアを集計し、ソート
ith_cluster_silhouette_values = sample_silhouette_values[cluster_labels == i]
ith_cluster_silhouette_values.sort()
size_cluster_i = ith_cluster_silhouette_values.shape[0]
y_upper = y_lower + size_cluster_i
color = cm.nipy_spectral(float(i) / n_clusters)
ax1.fill_betweenx(
np.arange(y_lower, y_upper),
0,
ith_cluster_silhouette_values,
facecolor=color,
edgecolor=color,
alpha=0.7,
)
## シルエットプロットの中央にクラスタ番号を付ける
ax1.text(-0.05, y_lower + 0.5 * size_cluster_i, str(i))
## 次のプロット用の新しい y_lower を計算
y_lower = y_upper + 10 ## 0 サンプル用の 10
ax1.set_title("The silhouette plot for the various clusters.")
ax1.set_xlabel("The silhouette coefficient values")
ax1.set_ylabel("Cluster label")
## すべての値の平均シルエットスコアの垂直線
ax1.axvline(x=silhouette_avg, color="red", linestyle="--")
ax1.set_yticks([]) ## y 軸のラベル / 目盛りをクリア
ax1.set_xticks([-0.1, 0, 0.2, 0.4, 0.6, 0.8, 1])
## 2 番目のプロットは形成された実際のクラスタを表示
colors = cm.nipy_spectral(cluster_labels.astype(float) / n_clusters)
ax2.scatter(
X[:, 0], X[:, 1], marker=".", s=30, lw=0, alpha=0.7, c=colors, edgecolor="k"
)
## クラスタにラベルを付ける
centers = clusterer.cluster_centers_
## クラスタ中心に白い円を描く
ax2.scatter(
centers[:, 0],
centers[:, 1],
marker="o",
c="white",
alpha=1,
s=200,
edgecolor="k",
)
for i, c in enumerate(centers):
ax2.scatter(c[0], c[1], marker="$%d$" % i, alpha=1, s=50, edgecolor="k")
ax2.set_title("The visualization of the clustered data.")
ax2.set_xlabel("Feature space for the 1st feature")
ax2.set_ylabel("Feature space for the 2nd feature")
plt.suptitle(
"Silhouette analysis for KMeans clustering on sample data with n_clusters = %d"
% n_clusters,
fontsize=14,
fontweight="bold",
)
plt.show()
結果の解釈
シルエット法の結果を解釈します。n_clusters の各値に対する平均シルエットスコアを見て、最も高いスコアを与える値を選びます。
まとめ
この実験では、シルエット法を使って KMeans アルゴリズムの最適なクラスタ数を決定しました。make_blobs関数を使ってサンプルデータを生成し、n_clustersの値の範囲に対するシルエットスコアをプロットしました。結果を解釈し、n_clustersの最適値を選びました。