Clasificación de datos con SVM Kernel

Machine LearningMachine LearningBeginner
Practicar Ahora

This tutorial is from open-source community. Access the source code

💡 Este tutorial está traducido por IA desde la versión en inglés. Para ver la versión original, puedes hacer clic aquí

Introducción

Esta práctica ofrece una guía paso a paso sobre cómo utilizar los SVM-Kernels para clasificar puntos de datos. Los SVM-Kernels son especialmente útiles cuando los puntos de datos no son linealmente separables. Utilizaremos scikit-learn de Python para llevar a cabo esta tarea.

Consejos sobre la VM

Una vez finalizada la inicialización de la VM, haga clic en la esquina superior izquierda para cambiar a la pestaña Cuaderno y acceder a Jupyter Notebook para practicar.

A veces, es posible que tenga que esperar unos segundos a que Jupyter Notebook termine de cargarse. La validación de las operaciones no se puede automatizar debido a las limitaciones de Jupyter Notebook.

Si tiene problemas durante el aprendizaje, no dude en preguntar a Labby. Deje su retroalimentación después de la sesión y resolveremos rápidamente el problema para usted.


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL ml(("Machine Learning")) -.-> ml/FrameworkandSoftwareGroup(["Framework and Software"]) ml/FrameworkandSoftwareGroup -.-> ml/sklearn("scikit-learn") subgraph Lab Skills ml/sklearn -.-> lab-49307{{"Clasificación de datos con SVM Kernel"}} end

Importar bibliotecas

En este paso, importaremos las bibliotecas necesarias para llevar a cabo la tarea de clasificación.

import numpy as np
import matplotlib.pyplot as plt
from sklearn import svm

Crear el conjunto de datos y los objetivos

En este paso, crearemos un conjunto de datos y objetivos para nuestra tarea de clasificación. Utilizaremos la biblioteca numpy para crear el conjunto de datos y los objetivos.

X = np.c_[
    (0.4, -0.7),
    (-1.5, -1),
    (-1.4, -0.9),
    (-1.3, -1.2),
    (-1.1, -0.2),
    (-1.2, -0.4),
    (-0.5, 1.2),
    (-1.5, 2.1),
    (1, 1),
    ## --
    (1.3, 0.8),
    (1.2, 0.5),
    (0.2, -2),
    (0.5, -2.4),
    (0.2, -2.3),
    (0, -2.7),
    (1.3, 2.1),
].T
Y = [0] * 8 + [1] * 8

Crear el modelo

En este paso, crearemos el modelo SVM-Kernel con tres kernels diferentes: lineal, polinomial y función de base radial (RBF). El kernel lineal se utiliza para puntos de datos linealmente separables, mientras que los kernels polinomial y RBF son útiles para puntos de datos no linealmente separables.

## ajustar el modelo
for kernel in ("linear", "poly", "rbf"):
    clf = svm.SVC(kernel=kernel, gamma=2)
    clf.fit(X, Y)

Visualizar el modelo

En este paso, visualizaremos el modelo SVM-Kernel trazando la línea, los puntos y los vectores más cercanos al plano.

    ## plot the line, the points, and the nearest vectors to the plane
    plt.figure(fignum, figsize=(4, 3))
    plt.clf()

    plt.scatter(
        clf.support_vectors_[:, 0],
        clf.support_vectors_[:, 1],
        s=80,
        facecolors="none",
        zorder=10,
        edgecolors="k",
    )
    plt.scatter(X[:, 0], X[:, 1], c=Y, zorder=10, cmap=plt.cm.Paired, edgecolors="k")

    plt.axis("tight")
    x_min = -3
    x_max = 3
    y_min = -3
    y_max = 3

    XX, YY = np.mgrid[x_min:x_max:200j, y_min:y_max:200j]
    Z = clf.decision_function(np.c_[XX.ravel(), YY.ravel()])

    ## Put the result into a color plot
    Z = Z.reshape(XX.shape)
    plt.figure(fignum, figsize=(4, 3))
    plt.pcolormesh(XX, YY, Z > 0, cmap=plt.cm.Paired)
    plt.contour(
        XX,
        YY,
        Z,
        colors=["k", "k", "k"],
        linestyles=["--", "-", "--"],
        levels=[-0.5, 0, 0.5],
    )

    plt.xlim(x_min, x_max)
    plt.ylim(y_min, y_max)

    plt.xticks(())
    plt.yticks(())
    fignum = fignum + 1
plt.show()

Resumen

En este laboratorio, aprendimos cómo usar SVM-Kernels para clasificar puntos de datos. Creamos un conjunto de datos y objetivos, creamos el modelo SVM-Kernel con tres kernels diferentes y visualizamos el modelo. Los SVM-Kernels son especialmente útiles cuando los puntos de datos no son linealmente separables.