Введение
В этом практическом занятии мы рассмотрим пример классификации с использованием гауссовского процесса (Gaussian Process Classification, GPC) на наборе данных XOR с использованием scikit-learn. Мы сравним результаты, полученные с использованием стационарного изотропного ядра (RBF) и нестационарного ядра (DotProduct).
Советы по использованию ВМ
После запуска ВМ нажмите в верхнем левом углу, чтобы переключиться на вкладку Notebook и получить доступ к Jupyter Notebook для практики.
Иногда вам может потребоваться подождать несколько секунд, пока Jupyter Notebook полностью загрузится. Проверка операций не может быть автоматизирована из-за ограничений Jupyter Notebook.
Если вы сталкиваетесь с проблемами во время обучения, не стесняйтесь обращаться к Labby. Оставьте отзыв после занятия, и мы оперативно решим проблему для вас.
Импорт библиотек
В этом шаге мы импортируем необходимые библиотеки для этого практического занятия.
import numpy as np
import matplotlib.pyplot as plt
from sklearn.gaussian_process import GaussianProcessClassifier
from sklearn.gaussian_process.kernels import RBF, DotProduct
Создание набора данных XOR
В этом шаге мы создадим набор данных XOR с использованием numpy. Мы будем использовать функцию logical_xor для создания меток на основе входных признаков.
xx, yy = np.meshgrid(np.linspace(-3, 3, 50), np.linspace(-3, 3, 50))
rng = np.random.RandomState(0)
X = rng.randn(200, 2)
Y = np.logical_xor(X[:, 0] > 0, X[:, 1] > 0)
Настройка модели
В этом шаге мы настроим классификатор гауссовского процесса на наборе данных. Мы будем использовать два различных ядра для сравнения - RBF и DotProduct.
plt.figure(figsize=(10, 5))
kernels = [1.0 * RBF(length_scale=1.15), 1.0 * DotProduct(sigma_0=1.0) ** 2]
for i, kernel in enumerate(kernels):
clf = GaussianProcessClassifier(kernel=kernel, warm_start=True).fit(X, Y)
## plot the decision function for each datapoint on the grid
Z = clf.predict_proba(np.vstack((xx.ravel(), yy.ravel())).T)[:, 1]
Z = Z.reshape(xx.shape)
plt.subplot(1, 2, i + 1)
image = plt.imshow(
Z,
interpolation="nearest",
extent=(xx.min(), xx.max(), yy.min(), yy.max()),
aspect="auto",
origin="lower",
cmap=plt.cm.PuOr_r,
)
contours = plt.contour(xx, yy, Z, levels=[0.5], linewidths=2, colors=["k"])
plt.scatter(X[:, 0], X[:, 1], s=30, c=Y, cmap=plt.cm.Paired, edgecolors=(0, 0, 0))
plt.xticks(())
plt.yticks(())
plt.axis([-3, 3, -3, 3])
plt.colorbar(image)
plt.title(
"%s\n Log-Marginal-Likelihood:%.3f"
% (clf.kernel_, clf.log_marginal_likelihood(clf.kernel_.theta)),
fontsize=12,
)
plt.tight_layout()
plt.show()
Визуализация результатов
В этом шаге мы визуализируем результаты, полученные при настройке модели. Мы построим функцию решения для каждого точки данных на сетке и точечный график для входных признаков.
Резюме
В этом практическом занятии мы рассмотрели пример классификации гауссовским процессом (GPC) на наборе данных XOR с использованием scikit - learn. Мы сравнили результаты, полученные при использовании стационарного, изотропного ядра (RBF) и нестационарного ядра (DotProduct).