简介
在本实验中,我们将使用 scikit-learn 在异或(XOR)数据集上进行高斯过程分类(GPC)的示例。我们将比较使用平稳、各向同性核(径向基函数,RBF)和非平稳核(点积,DotProduct)获得的结果。
虚拟机使用提示
虚拟机启动完成后,点击左上角切换到“笔记本”标签页,以访问 Jupyter Notebook 进行练习。
有时,你可能需要等待几秒钟让 Jupyter Notebook 完成加载。由于 Jupyter Notebook 的限制,操作验证无法自动化。
如果你在学习过程中遇到问题,随时向 Labby 提问。课程结束后提供反馈,我们将立即为你解决问题。
导入库
在这一步中,我们将导入本实验所需的必要库。
import numpy as np
import matplotlib.pyplot as plt
from sklearn.gaussian_process import GaussianProcessClassifier
from sklearn.gaussian_process.kernels import RBF, DotProduct
创建异或(XOR)数据集
在这一步中,我们将使用 NumPy 创建一个异或数据集。我们将使用logical_xor函数根据输入特征创建标签。
xx, yy = np.meshgrid(np.linspace(-3, 3, 50), np.linspace(-3, 3, 50))
rng = np.random.RandomState(0)
X = rng.randn(200, 2)
Y = np.logical_xor(X[:, 0] > 0, X[:, 1] > 0)
模型拟合
在这一步中,我们将把高斯过程分类器拟合到数据集上。我们将使用两种不同的核进行比较——径向基函数(RBF)和点积(DotProduct)。
plt.figure(figsize=(10, 5))
kernels = [1.0 * RBF(length_scale=1.15), 1.0 * DotProduct(sigma_0=1.0) ** 2]
for i, kernel in enumerate(kernels):
clf = GaussianProcessClassifier(kernel=kernel, warm_start=True).fit(X, Y)
## plot the decision function for each datapoint on the grid
Z = clf.predict_proba(np.vstack((xx.ravel(), yy.ravel())).T)[:, 1]
Z = Z.reshape(xx.shape)
plt.subplot(1, 2, i + 1)
image = plt.imshow(
Z,
interpolation="nearest",
extent=(xx.min(), xx.max(), yy.min(), yy.max()),
aspect="auto",
origin="lower",
cmap=plt.cm.PuOr_r,
)
contours = plt.contour(xx, yy, Z, levels=[0.5], linewidths=2, colors=["k"])
plt.scatter(X[:, 0], X[:, 1], s=30, c=Y, cmap=plt.cm.Paired, edgecolors=(0, 0, 0))
plt.xticks(())
plt.yticks(())
plt.axis([-3, 3, -3, 3])
plt.colorbar(image)
plt.title(
"%s\n Log-Marginal-Likelihood:%.3f"
% (clf.kernel_, clf.log_marginal_likelihood(clf.kernel_.theta)),
fontsize=12,
)
plt.tight_layout()
plt.show()
可视化结果
在这一步中,我们将可视化通过拟合模型获得的结果。我们将绘制网格上每个数据点的决策函数以及输入特征的散点图。
总结
在本实验中,我们通过一个示例展示了如何使用 scikit-learn 在异或(XOR)数据集上进行高斯过程分类(GPC)。我们比较了使用平稳、各向同性核(径向基函数,RBF)和非平稳核(点积,DotProduct)所获得的结果。