Comparando K-Means e MiniBatchKMeans

Beginner

This tutorial is from open-source community. Access the source code

Introdução

Neste laboratório, compararemos dois algoritmos de agrupamento: K-Means e MiniBatchKMeans. K-Means é um algoritmo de agrupamento popular e amplamente utilizado em aprendizado de máquina. MiniBatchKMeans é uma variante do K-Means que é mais rápida, mas produz resultados ligeiramente diferentes. Agruparemos um conjunto de dados usando ambos os algoritmos e plotaremos os resultados. Também plotaremos os pontos que são rotulados diferentemente entre os dois algoritmos.

Dicas da Máquina Virtual

Após o término da inicialização da máquina virtual, clique no canto superior esquerdo para mudar para a aba Notebook para acessar o Jupyter Notebook para praticar.

Às vezes, pode ser necessário aguardar alguns segundos para que o Jupyter Notebook termine de carregar. A validação das operações não pode ser automatizada devido a limitações no Jupyter Notebook.

Se você enfrentar problemas durante o aprendizado, sinta-se à vontade para perguntar ao Labby. Forneça feedback após a sessão e resolveremos prontamente o problema para você.

Gerar os Dados

Começamos gerando os grupos de dados a serem agrupados.

import numpy as np
from sklearn.datasets import make_blobs

np.random.seed(0)

batch_size = 45
centers = [[1, 1], [-1, -1], [1, -1]]
n_clusters = len(centers)
X, labels_true = make_blobs(n_samples=3000, centers=centers, cluster_std=0.7)

Calcular Agrupamento com KMeans

Vamos calcular o agrupamento com KMeans.

import time
from sklearn.cluster import KMeans

k_means = KMeans(init="k-means++", n_clusters=3, n_init=10)
t0 = time.time()
k_means.fit(X)
t_batch = time.time() - t0

Calcular Agrupamento com MiniBatchKMeans

Vamos calcular o agrupamento com MiniBatchKMeans.

from sklearn.cluster import MiniBatchKMeans

mbk = MiniBatchKMeans(
    init="k-means++",
    n_clusters=3,
    batch_size=batch_size,
    n_init=10,
    max_no_improvement=10,
    verbose=0,
)
t0 = time.time()
mbk.fit(X)
t_mini_batch = time.time() - t0

Estabelecendo Paridade Entre Clusters

Queremos ter a mesma cor para o mesmo cluster tanto do algoritmo MiniBatchKMeans quanto do KMeans. Vamos emparelhar os centros dos clusters por proximidade.

from sklearn.metrics.pairwise import pairwise_distances_argmin

k_means_cluster_centers = k_means.cluster_centers_
order = pairwise_distances_argmin(k_means.cluster_centers_, mbk.cluster_centers_)
mbk_means_cluster_centers = mbk.cluster_centers_[order]

k_means_labels = pairwise_distances_argmin(X, k_means_cluster_centers)
mbk_means_labels = pairwise_distances_argmin(X, mbk_means_cluster_centers)

Plotando os Resultados

Vamos plotar os resultados.

import matplotlib.pyplot as plt

fig = plt.figure(figsize=(8, 3))
fig.subplots_adjust(left=0.02, right=0.98, bottom=0.05, top=0.9)
colors = ["#4EACC5", "#FF9C34", "#4E9A06"]

## KMeans
ax = fig.add_subplot(1, 3, 1)
for k, col in zip(range(n_clusters), colors):
    my_members = k_means_labels == k
    cluster_center = k_means_cluster_centers[k]
    ax.plot(X[my_members, 0], X[my_members, 1], "w", markerfacecolor=col, marker=".")
    ax.plot(
        cluster_center[0],
        cluster_center[1],
        "o",
        markerfacecolor=col,
        markeredgecolor="k",
        markersize=6,
    )
ax.set_title("KMeans")
ax.set_xticks(())
ax.set_yticks(())
plt.text(-3.5, 1.8, "tempo de treinamento: %.2fs\ninércia: %f" % (t_batch, k_means.inertia_))

## MiniBatchKMeans
ax = fig.add_subplot(1, 3, 2)
for k, col in zip(range(n_clusters), colors):
    my_members = mbk_means_labels == k
    cluster_center = mbk_means_cluster_centers[k]
    ax.plot(X[my_members, 0], X[my_members, 1], "w", markerfacecolor=col, marker=".")
    ax.plot(
        cluster_center[0],
        cluster_center[1],
        "o",
        markerfacecolor=col,
        markeredgecolor="k",
        markersize=6,
    )
ax.set_title("MiniBatchKMeans")
ax.set_xticks(())
ax.set_yticks(())
plt.text(-3.5, 1.8, "tempo de treinamento: %.2fs\ninércia: %f" % (t_mini_batch, mbk.inertia_))

## Inicializa o array diferente para todos como False
different = mbk_means_labels == 4
ax = fig.add_subplot(1, 3, 3)

for k in range(n_clusters):
    different += (k_means_labels == k) != (mbk_means_labels == k)

identical = np.logical_not(different)
ax.plot(X[identical, 0], X[identical, 1], "w", markerfacecolor="#bbbbbb", marker=".")
ax.plot(X[different, 0], X[different, 1], "w", markerfacecolor="m", marker=".")
ax.set_title("Diferença")
ax.set_xticks(())
ax.set_yticks(())

plt.show()

Resumo

Neste laboratório, aprendemos a comparar dois algoritmos de agrupamento: K-Means e MiniBatchKMeans. Agrupamos um conjunto de dados usando ambos os algoritmos e plotamos os resultados. Também plotamos os pontos que foram rotulados diferentemente entre os dois algoritmos. Esta comparação nos ajuda a entender as diferenças entre os dois algoritmos e escolher aquele que melhor atende às nossas necessidades.