Fator Local de Desvio para Detecção de Novidades

Beginner

This tutorial is from open-source community. Access the source code

Introdução

Neste laboratório, utilizaremos o algoritmo Local Outlier Factor (LOF) para realizar a detecção de novidades. O LOF é um método de detecção de anomalias não supervisionado que identifica o desvio de densidade local de um determinado ponto de dados em relação aos seus vizinhos. Considera como outliers as amostras que apresentam uma densidade substancialmente inferior à dos seus vizinhos.

Dicas da Máquina Virtual

Após o arranque da máquina virtual, clique no canto superior esquerdo para mudar para a aba Notebook para aceder ao Jupyter Notebook para a prática.

Por vezes, pode ser necessário esperar alguns segundos para o Jupyter Notebook terminar o carregamento. A validação das operações não pode ser automatizada devido a limitações no Jupyter Notebook.

Se tiver problemas durante o aprendizado, não hesite em contactar o Labby. Forneça feedback após a sessão e resolveremos prontamente o problema para si.

Importar Bibliotecas

Começaremos importando as bibliotecas necessárias. Usaremos scikit-learn, numpy e matplotlib.

import numpy as np
import matplotlib.pyplot as plt
from sklearn.neighbors import LocalOutlierFactor

Gerar Dados

Vamos gerar alguns dados para treino, teste e outliers usando numpy. Vamos gerar 100 observações normais de treino, 20 observações normais de teste e 20 observações anormais novas.

np.random.seed(42)

xx, yy = np.meshgrid(np.linspace(-5, 5, 500), np.linspace(-5, 5, 500))
X = 0.3 * np.random.randn(100, 2)
X_train = np.r_[X + 2, X - 2]
X = 0.3 * np.random.randn(20, 2)
X_test = np.r_[X + 2, X - 2]
X_outliers = np.random.uniform(low=-4, high=4, size=(20, 2))

Treinar o Modelo

Agora, treinaremos o modelo LOF usando os dados de treinamento. Definimos o número de vizinhos como 20 e a novidade como verdadeira. Também definimos a contaminação como 0,1.

clf = LocalOutlierFactor(n_neighbors=20, novelty=True, contamination=0.1)
clf.fit(X_train)

Avaliar o Modelo

Avaliaremos o modelo treinado nos dados de teste e nos dados de outliers. Usaremos o método predict para prever as etiquetas dos dados de teste e dos dados de outliers. Em seguida, contaremos o número de erros nos dados de teste e nos dados de outliers.

y_pred_test = clf.predict(X_test)
y_pred_outliers = clf.predict(X_outliers)
n_error_test = y_pred_test[y_pred_test == -1].size
n_error_outliers = y_pred_outliers[y_pred_outliers == 1].size

Visualizar os Resultados

Visualizaremos os resultados traçando os dados de treinamento, teste e outliers juntamente com a fronteira aprendida. Também exibiremos o número de erros nos dados de teste e nos dados de outliers.

Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()])
Z = Z.reshape(xx.shape)

plt.title("Detecção de Novidades com LOF")
plt.contourf(xx, yy, Z, levels=np.linspace(Z.min(), 0, 7), cmap=plt.cm.PuBu)
a = plt.contour(xx, yy, Z, levels=[0], linewidths=2, colors="darkred")
plt.contourf(xx, yy, Z, levels=[0, Z.max()], colors="palevioletred")

s = 40
b1 = plt.scatter(X_train[:, 0], X_train[:, 1], c="white", s=s, edgecolors="k")
b2 = plt.scatter(X_test[:, 0], X_test[:, 1], c="blueviolet", s=s, edgecolors="k")
c = plt.scatter(X_outliers[:, 0], X_outliers[:, 1], c="gold", s=s, edgecolors="k")
plt.axis("tight")
plt.xlim((-5, 5))
plt.ylim((-5, 5))
plt.legend(
    [a.collections[0], b1, b2, c],
    [
        "fronteira aprendida",
        "observações de treinamento",
        "novas observações regulares",
        "novas observações anormais",
    ],
    loc="upper left",
    prop=matplotlib.font_manager.FontProperties(size=11),
)
plt.xlabel(
    "erros novel regular: %d/40 ; erros novel anormal: %d/40"
    % (n_error_test, n_error_outliers)
)
plt.show()

Resumo

Neste laboratório, utilizamos o algoritmo Local Outlier Factor (LOF) para realizar a detecção de novidades. Geramos dados para treinamento, teste e outliers, treinamos o modelo LOF, avaliamos o modelo e visualizamos os resultados.