Введение
Этот лаба сравнивает время работы двух алгоритмов кластеризации, BIRCH и MiniBatchKMeans, на синтетическом наборе данных. Оба алгоритма масштабируемы и могут эффективно кластеризовать большие наборы данных. Синтетический набор данных содержит 25 000 образцов и два признака, сгенерированные с использованием make_blobs.
Советы по работе с ВМ
После запуска ВМ нажмите в левом верхнем углу, чтобы переключиться на вкладку Ноутбук и получить доступ к Jupyter Notebook для практики.
Иногда вам может потребоваться подождать несколько секунд, пока Jupyter Notebook загрузится. Валидация операций не может быть автоматизирована из-за ограничений Jupyter Notebook.
Если вы сталкиваетесь с проблемами во время обучения, не стесняйтесь обращаться к Labby. Оставьте отзыв после занятия, и мы оперативно решим проблему для вас.
Импорт библиотек
Первым шагом является импорт необходимых библиотек. Мы будем импортировать следующие библиотеки:
- numpy
- matplotlib
- sklearn
from joblib import cpu_count
from itertools import cycle
from time import time
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.colors as colors
from sklearn.cluster import Birch, MiniBatchKMeans
from sklearn.datasets import make_blobs
Генерация точек данных (blobs)
Следующим шагом является генерация точек данных (blobs) для сравнения между MiniBatchKMeans и BIRCH. Мы будем использовать все цвета, предоставляемые matplotlib по умолчанию.
## Generate centers for the blobs so that it forms a 10 X 10 grid.
xx = np.linspace(-22, 22, 10)
yy = np.linspace(-22, 22, 10)
xx, yy = np.meshgrid(xx, yy)
n_centers = np.hstack((np.ravel(xx)[:, np.newaxis], np.ravel(yy)[:, np.newaxis]))
## Generate blobs to do a comparison between MiniBatchKMeans and BIRCH.
X, y = make_blobs(n_samples=25000, centers=n_centers, random_state=0)
## Use all colors that matplotlib provides by default.
colors_ = cycle(colors.cnames.keys())
Модель Birch
Третий шаг - вычислить кластеризацию с использованием Birch с и без финального этапа кластеризации и построить графики. Мы создадим две модели Birch, одну без глобального этапа кластеризации, а другую с глобальным этапом кластеризации.
## Compute clustering with BIRCH with and without the final clustering step and plot.
birch_models = [
Birch(threshold=1.7, n_clusters=None),
Birch(threshold=1.7, n_clusters=100),
]
final_step = ["without global clustering", "with global clustering"]
for ind, (birch_model, info) in enumerate(zip(birch_models, final_step)):
t = time()
birch_model.fit(X)
print("BIRCH %s as the final step took %0.2f seconds" % (info, (time() - t)))
## Plot result
labels = birch_model.labels_
centroids = birch_model.subcluster_centers_
n_clusters = np.unique(labels).size
print("n_clusters : %d" % n_clusters)
ax = fig.add_subplot(1, 3, ind + 1)
for this_centroid, k, col in zip(centroids, range(n_clusters), colors_):
mask = labels == k
ax.scatter(X[mask, 0], X[mask, 1], c="w", edgecolor=col, marker=".", alpha=0.5)
if birch_model.n_clusters is None:
ax.scatter(this_centroid[0], this_centroid[1], marker="+", c="k", s=25)
ax.set_ylim([-25, 25])
ax.set_xlim([-25, 25])
ax.set_autoscaley_on(False)
ax.set_title("BIRCH %s" % info)
Модель MiniBatchKMeans
Четвёртым шагом является вычисление кластеризации с использованием MiniBatchKMeans. Мы подберём модель для нашего набора данных и выведем время, затраченное на запуск MiniBatchKMeans.
## Compute clustering with MiniBatchKMeans.
mbk = MiniBatchKMeans(
init="k-means++",
n_clusters=100,
batch_size=256 * cpu_count(),
n_init=10,
max_no_improvement=10,
verbose=0,
random_state=0,
)
t0 = time()
mbk.fit(X)
t_mini_batch = time() - t0
print("Time taken to run MiniBatchKMeans %0.2f seconds" % t_mini_batch)
mbk_means_labels_unique = np.unique(mbk.labels_)
ax = fig.add_subplot(1, 3, 3)
for this_centroid, k, col in zip(mbk.cluster_centers_, range(n_clusters), colors_):
mask = mbk.labels_ == k
ax.scatter(X[mask, 0], X[mask, 1], marker=".", c="w", edgecolor=col, alpha=0.5)
ax.scatter(this_centroid[0], this_centroid[1], marker="+", c="k", s=25)
ax.set_xlim([-25, 25])
ax.set_ylim([-25, 25])
ax.set_title("MiniBatchKMeans")
ax.set_autoscaley_on(False)
plt.show()
Резюме
В этом лабаратории сравнивались времена работы двух алгоритмов кластеризации, BIRCH и MiniBatchKMeans, на синтетическом наборе данных. BIRCH - это иерархический алгоритм кластеризации, который может эффективно кластеризовать большие наборы данных. MiniBatchKMeans - это модификация алгоритма KMeans, которая также может эффективно кластеризовать большие наборы данных. Оба алгоритма были способны кластеризовать набор данных за разумное время.