Mapear datos a una distribución normal

Machine LearningMachine LearningBeginner
Practicar Ahora

This tutorial is from open-source community. Access the source code

💡 Este tutorial está traducido por IA desde la versión en inglés. Para ver la versión original, puedes hacer clic aquí

Introducción

Esta práctica demuestra cómo utilizar las transformaciones Box-Cox y Yeo-Johnson a través de PowerTransformer para mapear datos de diversas distribuciones a una distribución normal.

Consejos sobre la VM

Una vez que se haya iniciado la VM, haga clic en la esquina superior izquierda para cambiar a la pestaña Cuaderno y acceder a Jupyter Notebook para practicar.

A veces, es posible que tenga que esperar unos segundos a que Jupyter Notebook termine de cargarse. La validación de las operaciones no se puede automatizar debido a las limitaciones de Jupyter Notebook.

Si tiene problemas durante el aprendizaje, no dude en preguntar a Labby. Deje sus comentarios después de la sesión y lo resolveremos rápidamente para usted.


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL sklearn(("Sklearn")) -.-> sklearn/DataPreprocessingandFeatureEngineeringGroup(["Data Preprocessing and Feature Engineering"]) sklearn(("Sklearn")) -.-> sklearn/ModelSelectionandEvaluationGroup(["Model Selection and Evaluation"]) ml(("Machine Learning")) -.-> ml/FrameworkandSoftwareGroup(["Framework and Software"]) sklearn/DataPreprocessingandFeatureEngineeringGroup -.-> sklearn/preprocessing("Preprocessing and Normalization") sklearn/ModelSelectionandEvaluationGroup -.-> sklearn/model_selection("Model Selection") ml/FrameworkandSoftwareGroup -.-> ml/sklearn("scikit-learn") subgraph Lab Skills sklearn/preprocessing -.-> lab-49209{{"Mapear datos a una distribución normal"}} sklearn/model_selection -.-> lab-49209{{"Mapear datos a una distribución normal"}} ml/sklearn -.-> lab-49209{{"Mapear datos a una distribución normal"}} end

Importar bibliotecas

En primer lugar, necesitamos importar las bibliotecas necesarias: numpy, matplotlib, PowerTransformer, QuantileTransformer y train_test_split.

import numpy as np
import matplotlib.pyplot as plt
from sklearn.preprocessing import PowerTransformer
from sklearn.preprocessing import QuantileTransformer
from sklearn.model_selection import train_test_split

Establecer constantes

Vamos a establecer las constantes para el número de muestras, el tamaño de fuente y los intervalos.

N_SAMPLES = 1000
FONT_SIZE = 6
BINS = 30

Crear distribuciones aleatorias

Generaremos seis distribuciones de probabilidad diferentes: Lognormal, Qui-cuadrado, Weibull, Gaussiana, Uniforme y Bimodal.

rng = np.random.RandomState(304)
bc = PowerTransformer(method="box-cox")
yj = PowerTransformer(method="yeo-johnson")
qt = QuantileTransformer(n_quantiles=500, output_distribution="normal", random_state=rng)
size = (N_SAMPLES, 1)

## distribución lognormal
X_lognormal = rng.lognormal(size=size)

## distribución qui-cuadrado
df = 3
X_chisq = rng.chisquare(df=df, size=size)

## distribución weibull
a = 50
X_weibull = rng.weibull(a=a, size=size)

## distribución gaussiana
loc = 100
X_gaussian = rng.normal(loc=loc, size=size)

## distribución uniforme
X_uniform = rng.uniform(low=0, high=1, size=size)

## distribución bimodal
loc_a, loc_b = 100, 105
X_a, X_b = rng.normal(loc=loc_a, size=size), rng.normal(loc=loc_b, size=size)
X_bimodal = np.concatenate([X_a, X_b], axis=0)

Crear gráficos

Ahora, crearemos gráficos para cada una de las seis distribuciones, mostrando la distribución original y la distribución transformada utilizando Box-Cox, Yeo-Johnson y Quantile Transformer.

distributions = [
    ("Lognormal", X_lognormal),
    ("Chi-squared", X_chisq),
    ("Weibull", X_weibull),
    ("Gaussian", X_gaussian),
    ("Uniform", X_uniform),
    ("Bimodal", X_bimodal),
]

colors = ["#D81B60", "#0188FF", "#FFC107", "#B7A2FF", "#000000", "#2EC5AC"]

fig, axes = plt.subplots(nrows=8, ncols=3, figsize=plt.figaspect(2))
axes = axes.flatten()
axes_idxs = [
    (0, 3, 6, 9),
    (1, 4, 7, 10),
    (2, 5, 8, 11),
    (12, 15, 18, 21),
    (13, 16, 19, 22),
    (14, 17, 20, 23),
]
axes_list = [(axes[i], axes[j], axes[k], axes[l]) for (i, j, k, l) in axes_idxs]

for distribution, color, axes in zip(distributions, colors, axes_list):
    name, X = distribution
    X_train, X_test = train_test_split(X, test_size=0.5)

    ## realizar transformaciones de potencia y transformación cuantil
    X_trans_bc = bc.fit(X_train).transform(X_test)
    lmbda_bc = round(bc.lambdas_[0], 2)
    X_trans_yj = yj.fit(X_train).transform(X_test)
    lmbda_yj = round(yj.lambdas_[0], 2)
    X_trans_qt = qt.fit(X_train).transform(X_test)

    ax_original, ax_bc, ax_yj, ax_qt = axes

    ax_original.hist(X_train, color=color, bins=BINS)
    ax_original.set_title(name, fontsize=FONT_SIZE)
    ax_original.tick_params(axis="both", which="major", labelsize=FONT_SIZE)

    for ax, X_trans, meth_name, lmbda in zip(
        (ax_bc, ax_yj, ax_qt),
        (X_trans_bc, X_trans_yj, X_trans_qt),
        ("Box-Cox", "Yeo-Johnson", "Transformación cuantil"),
        (lmbda_bc, lmbda_yj, None),
    ):
        ax.hist(X_trans, color=color, bins=BINS)
        title = "Después de {}".format(meth_name)
        if lmbda is not None:
            title += "\n$\\lambda$ = {}".format(lmbda)
        ax.set_title(title, fontsize=FONT_SIZE)
        ax.tick_params(axis="both", which="major", labelsize=FONT_SIZE)
        ax.set_xlim([-3.5, 3.5])

plt.tight_layout()
plt.show()

Resumen

En este laboratorio, aprendimos cómo usar PowerTransformer para mapear datos de diversas distribuciones a una distribución normal utilizando las transformaciones Box-Cox y Yeo-Johnson. También aprendimos cómo usar QuantileTransformer para forzar cualquier distribución arbitraria a convertirse en una distribución Gaussiana. Es importante visualizar los datos antes y después de la transformación, ya que algunas transformaciones pueden ser inefectivas con ciertos conjuntos de datos.