Introdução
Este laboratório demonstra como usar as transformações Box-Cox e Yeo-Johnson através do PowerTransformer para mapear dados de várias distribuições para uma distribuição normal.
Dicas da Máquina Virtual
Após o arranque da máquina virtual, clique no canto superior esquerdo para mudar para a aba Notebook para aceder ao Jupyter Notebook para praticar.
Por vezes, pode ser necessário esperar alguns segundos para o Jupyter Notebook terminar o carregamento. A validação das operações não pode ser automatizada devido a limitações no Jupyter Notebook.
Se tiver problemas durante o aprendizado, não hesite em contactar o Labby. Forneça feedback após a sessão e resolveremos prontamente o problema para si.
Importar Bibliotecas
Primeiro, precisamos importar as bibliotecas necessárias: numpy, matplotlib, PowerTransformer, QuantileTransformer e train_test_split.
import numpy as np
import matplotlib.pyplot as plt
from sklearn.preprocessing import PowerTransformer
from sklearn.preprocessing import QuantileTransformer
from sklearn.model_selection import train_test_split
Definir Constantes
Vamos definir as constantes para o número de amostras, tamanho da fonte e bins.
N_SAMPLES = 1000
FONT_SIZE = 6
BINS = 30
Criar Distribuições Aleatórias
Vamos gerar seis distribuições de probabilidade diferentes: Lognormal, Qui-quadrado, Weibull, Gaussiana, Uniforme e Bimodal.
rng = np.random.RandomState(304)
bc = PowerTransformer(method="box-cox")
yj = PowerTransformer(method="yeo-johnson")
qt = QuantileTransformer(n_quantiles=500, output_distribution="normal", random_state=rng)
size = (N_SAMPLES, 1)
## distribuição lognormal
X_lognormal = rng.lognormal(size=size)
## distribuição qui-quadrado
df = 3
X_chisq = rng.chisquare(df=df, size=size)
## distribuição weibull
a = 50
X_weibull = rng.weibull(a=a, size=size)
## distribuição gaussiana
loc = 100
X_gaussian = rng.normal(loc=loc, size=size)
## distribuição uniforme
X_uniform = rng.uniform(low=0, high=1, size=size)
## distribuição bimodal
loc_a, loc_b = 100, 105
X_a, X_b = rng.normal(loc=loc_a, size=size), rng.normal(loc=loc_b, size=size)
X_bimodal = np.concatenate([X_a, X_b], axis=0)
Criar Gráficos
Agora, criaremos gráficos para cada uma das seis distribuições, mostrando a distribuição original e a distribuição transformada usando os transformadores Box-Cox, Yeo-Johnson e Quantile.
distributions = [
("Lognormal", X_lognormal),
("Chi-squared", X_chisq),
("Weibull", X_weibull),
("Gaussian", X_gaussian),
("Uniform", X_uniform),
("Bimodal", X_bimodal),
]
colors = ["#D81B60", "#0188FF", "#FFC107", "#B7A2FF", "#000000", "#2EC5AC"]
fig, axes = plt.subplots(nrows=8, ncols=3, figsize=plt.figaspect(2))
axes = axes.flatten()
axes_idxs = [
(0, 3, 6, 9),
(1, 4, 7, 10),
(2, 5, 8, 11),
(12, 15, 18, 21),
(13, 16, 19, 22),
(14, 17, 20, 23),
]
axes_list = [(axes[i], axes[j], axes[k], axes[l]) for (i, j, k, l) in axes_idxs]
for distribution, color, axes in zip(distributions, colors, axes_list):
name, X = distribution
X_train, X_test = train_test_split(X, test_size=0.5)
## realizar transformações de potência e transformação quantile
X_trans_bc = bc.fit(X_train).transform(X_test)
lmbda_bc = round(bc.lambdas_[0], 2)
X_trans_yj = yj.fit(X_train).transform(X_test)
lmbda_yj = round(yj.lambdas_[0], 2)
X_trans_qt = qt.fit(X_train).transform(X_test)
ax_original, ax_bc, ax_yj, ax_qt = axes
ax_original.hist(X_train, color=color, bins=BINS)
ax_original.set_title(name, fontsize=FONT_SIZE)
ax_original.tick_params(axis="both", which="major", labelsize=FONT_SIZE)
for ax, X_trans, meth_name, lmbda in zip(
(ax_bc, ax_yj, ax_qt),
(X_trans_bc, X_trans_yj, X_trans_qt),
("Box-Cox", "Yeo-Johnson", "Transformação Quantile"),
(lmbda_bc, lmbda_yj, None),
):
ax.hist(X_trans, color=color, bins=BINS)
title = "Após {}".format(meth_name)
if lmbda is not None:
title += "\n$\\lambda$ = {}".format(lmbda)
ax.set_title(title, fontsize=FONT_SIZE)
ax.tick_params(axis="both", which="major", labelsize=FONT_SIZE)
ax.set_xlim([-3.5, 3.5])
plt.tight_layout()
plt.show()
Resumo
Neste laboratório, aprendemos como usar o PowerTransformer para mapear dados de várias distribuições para uma distribuição normal usando as transformações Box-Cox e Yeo-Johnson. Também aprendemos como usar o QuantileTransformer para forçar qualquer distribuição arbitrária a uma distribuição gaussiana. É importante visualizar os dados antes e depois da transformação, pois algumas transformações podem ser ineficazes com determinados conjuntos de dados.