绘制 Sgdocsvm 与 Ocsvm 的对比图

Machine LearningMachine LearningBeginner
立即练习

This tutorial is from open-source community. Access the source code

💡 本教程由 AI 辅助翻译自英文原版。如需查看原文,您可以 切换至英文原版

简介

在本实验中,我们将演示如何使用随机梯度下降(SGD)来近似径向基函数(RBF)核情况下的一类支持向量机(One-Class SVM)的解。

我们将把这种近似结果与使用核方法的一类支持向量机的结果进行比较。本实验的目的不是展示近似在计算时间方面的优势,而是证明在一个简单数据集上使用随机梯度下降可以得到相似的结果。

虚拟机使用提示

虚拟机启动完成后,点击左上角切换到“笔记本”标签页,以访问Jupyter Notebook进行练习。

有时,你可能需要等待几秒钟让Jupyter Notebook完成加载。由于Jupyter Notebook的限制,操作验证无法自动化。

如果你在学习过程中遇到问题,随时向Labby提问。课程结束后提供反馈,我们会及时为你解决问题。


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL ml(("Machine Learning")) -.-> ml/FrameworkandSoftwareGroup(["Framework and Software"]) sklearn(("Sklearn")) -.-> sklearn/CoreModelsandAlgorithmsGroup(["Core Models and Algorithms"]) sklearn(("Sklearn")) -.-> sklearn/DataPreprocessingandFeatureEngineeringGroup(["Data Preprocessing and Feature Engineering"]) sklearn/CoreModelsandAlgorithmsGroup -.-> sklearn/linear_model("Linear Models") sklearn/CoreModelsandAlgorithmsGroup -.-> sklearn/svm("Support Vector Machines") sklearn/DataPreprocessingandFeatureEngineeringGroup -.-> sklearn/pipeline("Pipeline") sklearn/DataPreprocessingandFeatureEngineeringGroup -.-> sklearn/kernel_approximation("Kernel Approximation") ml/FrameworkandSoftwareGroup -.-> ml/sklearn("scikit-learn") subgraph Lab Skills sklearn/linear_model -.-> lab-49293{{"绘制 Sgdocsvm 与 Ocsvm 的对比图"}} sklearn/svm -.-> lab-49293{{"绘制 Sgdocsvm 与 Ocsvm 的对比图"}} sklearn/pipeline -.-> lab-49293{{"绘制 Sgdocsvm 与 Ocsvm 的对比图"}} sklearn/kernel_approximation -.-> lab-49293{{"绘制 Sgdocsvm 与 Ocsvm 的对比图"}} ml/sklearn -.-> lab-49293{{"绘制 Sgdocsvm 与 Ocsvm 的对比图"}} end

导入库

我们首先导入本实验所需的库:NumPy、Matplotlib和scikit-learn。

import numpy as np
import matplotlib.pyplot as plt
from sklearn.svm import OneClassSVM
from sklearn.linear_model import SGDOneClassSVM
from sklearn.kernel_approximation import Nystroem
from sklearn.pipeline import make_pipeline

生成数据

我们将为本次实验生成一个简单的数据集。我们将生成500个训练样本和20个测试样本。我们还将生成20个异常样本。

random_state = 42
rng = np.random.RandomState(random_state)

## 生成训练数据
X = 0.3 * rng.randn(500, 2)
X_train = np.r_[X + 2, X - 2]
## 生成一些常规的新观测值
X = 0.3 * rng.randn(20, 2)
X_test = np.r_[X + 2, X - 2]
## 生成一些异常的新观测值
X_outliers = rng.uniform(low=-4, high=4, size=(20, 2))

拟合一类支持向量机

我们首先将使用带有径向基函数(RBF)核的一类支持向量机对我们的数据集进行拟合。

## 一类支持向量机超参数
nu = 0.05
gamma = 2.0

## 拟合一类支持向量机
clf = OneClassSVM(gamma=gamma, kernel="rbf", nu=nu)
clf.fit(X_train)
y_pred_train = clf.predict(X_train)
y_pred_test = clf.predict(X_test)
y_pred_outliers = clf.predict(X_outliers)
n_error_train = y_pred_train[y_pred_train == -1].size
n_error_test = y_pred_test[y_pred_test == -1].size
n_error_outliers = y_pred_outliers[y_pred_outliers == 1].size

Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()])
Z = Z.reshape(xx.shape)

使用随机梯度下降(SGD)拟合一类支持向量机

接下来,我们将使用随机梯度下降来拟合一类支持向量机。我们将使用核近似方法将随机梯度下降应用于我们的数据集。

## 使用核近似和随机梯度下降拟合一类支持向量机
transform = Nystroem(gamma=gamma, random_state=random_state)
clf_sgd = SGDOneClassSVM(
    nu=nu, shuffle=True, fit_intercept=True, random_state=random_state, tol=1e-4
)
pipe_sgd = make_pipeline(transform, clf_sgd)
pipe_sgd.fit(X_train)
y_pred_train_sgd = pipe_sgd.predict(X_train)
y_pred_test_sgd = pipe_sgd.predict(X_test)
y_pred_outliers_sgd = pipe_sgd.predict(X_outliers)
n_error_train_sgd = y_pred_train_sgd[y_pred_train_sgd == -1].size
n_error_test_sgd = y_pred_test_sgd[y_pred_test_sgd == -1].size
n_error_outliers_sgd = y_pred_outliers_sgd[y_pred_outliers_sgd == 1].size

Z_sgd = pipe_sgd.decision_function(np.c_[xx.ravel(), yy.ravel()])
Z_sgd = Z_sgd.reshape(xx.shape)

绘制结果

最后,我们将绘制普通一类支持向量机和使用随机梯度下降的一类支持向量机的结果。

## 绘制决策函数的等高线
plt.figure(figsize=(9, 6))
plt.title("一类支持向量机")
plt.contourf(xx, yy, Z, levels=np.linspace(Z.min(), 0, 7), cmap=plt.cm.PuBu)
a = plt.contour(xx, yy, Z, levels=[0], linewidths=2, colors="darkred")
plt.contourf(xx, yy, Z, levels=[0, Z.max()], colors="palevioletred")

s = 20
b1 = plt.scatter(X_train[:, 0], X_train[:, 1], c="white", s=s, edgecolors="k")
b2 = plt.scatter(X_test[:, 0], X_test[:, 1], c="blueviolet", s=s, edgecolors="k")
c = plt.scatter(X_outliers[:, 0], X_outliers[:, 1], c="gold", s=s, edgecolors="k")
plt.axis("tight")
plt.xlim((-4.5, 4.5))
plt.ylim((-4.5, 4.5))
plt.legend(
    [a.collections[0], b1, b2, c],
    [
        "学习到的边界",
        "训练观测值",
        "新的常规观测值",
        "新的异常观测值"
    ],
    loc="upper left"
)
plt.xlabel(
    "训练误差: %d/%d; 新常规观测值误差: %d/%d; 新异常观测值误差: %d/%d"
    % (
        n_error_train,
        X_train.shape[0],
        n_error_test,
        X_test.shape[0],
        n_error_outliers,
        X_outliers.shape[0]
    )
)
plt.show()

plt.figure(figsize=(9, 6))
plt.title("在线一类支持向量机")
plt.contourf(xx, yy, Z_sgd, levels=np.linspace(Z_sgd.min(), 0, 7), cmap=plt.cm.PuBu)
a = plt.contour(xx, yy, Z_sgd, levels=[0], linewidths=2, colors="darkred")
plt.contourf(xx, yy, Z_sgd, levels=[0, Z_sgd.max()], colors="palevioletred")

s = 20
b1 = plt.scatter(X_train[:, 0], X_train[:, 1], c="white", s=s, edgecolors="k")
b2 = plt.scatter(X_test[:, 0], X_test[:, 1], c="blueviolet", s=s, edgecolors="k")
c = plt.scatter(X_outliers[:, 0], X_outliers[:, 1], c="gold", s=s, edgecolors="k")
plt.axis("tight")
plt.xlim((-4.5, 4.5))
plt.ylim((-4.5, 4.5))
plt.legend(
    [a.collections[0], b1, b2, c],
    [
        "学习到的边界",
        "训练观测值",
        "新的常规观测值",
        "新的异常观测值"
    ],
    loc="upper left"
)
plt.xlabel(
    "训练误差: %d/%d; 新常规观测值误差: %d/%d; 新异常观测值误差: %d/%d"
    % (
        n_error_train_sgd,
        X_train.shape[0],
        n_error_test_sgd,
        X_test.shape[0],
        n_error_outliers_sgd,
        X_outliers.shape[0]
    )
)
plt.show()

总结

在本次实验中,我们展示了如何使用随机梯度下降(SGD)来近似求解带有径向基函数(RBF)核的一类支持向量机。我们将这种近似方法的结果与使用核化方法的一类支持向量机的结果进行了比较。我们生成了一个简单的数据集,并绘制了我们模型的结果。