Introducción
Esta práctica ofrece una guía paso a paso sobre cómo utilizar los SVM-Kernels para clasificar puntos de datos. Los SVM-Kernels son especialmente útiles cuando los puntos de datos no son linealmente separables. Utilizaremos scikit-learn de Python para llevar a cabo esta tarea.
Consejos sobre la VM
Una vez finalizada la inicialización de la VM, haga clic en la esquina superior izquierda para cambiar a la pestaña Cuaderno y acceder a Jupyter Notebook para practicar.
A veces, es posible que tenga que esperar unos segundos a que Jupyter Notebook termine de cargarse. La validación de las operaciones no se puede automatizar debido a las limitaciones de Jupyter Notebook.
Si tiene problemas durante el aprendizaje, no dude en preguntar a Labby. Deje su retroalimentación después de la sesión y resolveremos rápidamente el problema para usted.
Importar bibliotecas
En este paso, importaremos las bibliotecas necesarias para llevar a cabo la tarea de clasificación.
import numpy as np
import matplotlib.pyplot as plt
from sklearn import svm
Crear el conjunto de datos y los objetivos
En este paso, crearemos un conjunto de datos y objetivos para nuestra tarea de clasificación. Utilizaremos la biblioteca numpy para crear el conjunto de datos y los objetivos.
X = np.c_[
(0.4, -0.7),
(-1.5, -1),
(-1.4, -0.9),
(-1.3, -1.2),
(-1.1, -0.2),
(-1.2, -0.4),
(-0.5, 1.2),
(-1.5, 2.1),
(1, 1),
## --
(1.3, 0.8),
(1.2, 0.5),
(0.2, -2),
(0.5, -2.4),
(0.2, -2.3),
(0, -2.7),
(1.3, 2.1),
].T
Y = [0] * 8 + [1] * 8
Crear el modelo
En este paso, crearemos el modelo SVM-Kernel con tres kernels diferentes: lineal, polinomial y función de base radial (RBF). El kernel lineal se utiliza para puntos de datos linealmente separables, mientras que los kernels polinomial y RBF son útiles para puntos de datos no linealmente separables.
## ajustar el modelo
for kernel in ("linear", "poly", "rbf"):
clf = svm.SVC(kernel=kernel, gamma=2)
clf.fit(X, Y)
Visualizar el modelo
En este paso, visualizaremos el modelo SVM-Kernel trazando la línea, los puntos y los vectores más cercanos al plano.
## plot the line, the points, and the nearest vectors to the plane
plt.figure(fignum, figsize=(4, 3))
plt.clf()
plt.scatter(
clf.support_vectors_[:, 0],
clf.support_vectors_[:, 1],
s=80,
facecolors="none",
zorder=10,
edgecolors="k",
)
plt.scatter(X[:, 0], X[:, 1], c=Y, zorder=10, cmap=plt.cm.Paired, edgecolors="k")
plt.axis("tight")
x_min = -3
x_max = 3
y_min = -3
y_max = 3
XX, YY = np.mgrid[x_min:x_max:200j, y_min:y_max:200j]
Z = clf.decision_function(np.c_[XX.ravel(), YY.ravel()])
## Put the result into a color plot
Z = Z.reshape(XX.shape)
plt.figure(fignum, figsize=(4, 3))
plt.pcolormesh(XX, YY, Z > 0, cmap=plt.cm.Paired)
plt.contour(
XX,
YY,
Z,
colors=["k", "k", "k"],
linestyles=["--", "-", "--"],
levels=[-0.5, 0, 0.5],
)
plt.xlim(x_min, x_max)
plt.ylim(y_min, y_max)
plt.xticks(())
plt.yticks(())
fignum = fignum + 1
plt.show()
Resumen
En este laboratorio, aprendimos cómo usar SVM-Kernels para clasificar puntos de datos. Creamos un conjunto de datos y objetivos, creamos el modelo SVM-Kernel con tres kernels diferentes y visualizamos el modelo. Los SVM-Kernels son especialmente útiles cuando los puntos de datos no son linealmente separables.