지역이상치 팩터 (LOF) 를 이용한 신규 데이터 검출

Beginner

This tutorial is from open-source community. Access the source code

소개

이 실습에서는 지역 이상치 탐지 (LOF) 알고리즘을 사용하여 신규성 탐지를 수행합니다. LOF 는 주어진 데이터 포인트의 이웃과 비교한 지역 밀도 편차를 식별하는 비지도 이상치 탐지 방법입니다. 이웃보다 상당히 낮은 밀도를 갖는 샘플을 이상치로 간주합니다.

VM 팁

VM 시작이 완료되면 왼쪽 상단 모서리를 클릭하여 연습을 위해 Jupyter Notebook에 접근할 수 있는 Notebook 탭으로 전환합니다.

때때로 Jupyter Notebook 이 완전히 로드되기까지 몇 초 정도 기다려야 할 수 있습니다. Jupyter Notebook 의 제한으로 인해 작업의 유효성 검사를 자동화할 수 없습니다.

학습 중 문제가 발생하면 Labby 에 문의하십시오. 세션 후 피드백을 제공하면 문제를 신속하게 해결해 드리겠습니다.

라이브러리 가져오기

필요한 라이브러리를 가져오는 것으로 시작합니다. scikit-learn, numpy, matplotlib 를 사용할 것입니다.

import numpy as np
import matplotlib.pyplot as plt
from sklearn.neighbors import LocalOutlierFactor

데이터 생성

훈련, 테스트 및 이상치 데이터를 생성하기 위해 numpy 를 사용합니다. 100 개의 정상 훈련 관측치, 20 개의 정상 테스트 관측치 및 20 개의 비정상 신규 관측치를 생성합니다.

np.random.seed(42)

xx, yy = np.meshgrid(np.linspace(-5, 5, 500), np.linspace(-5, 5, 500))
X = 0.3 * np.random.randn(100, 2)
X_train = np.r_[X + 2, X - 2]
X = 0.3 * np.random.randn(20, 2)
X_test = np.r_[X + 2, X - 2]
X_outliers = np.random.uniform(low=-4, high=4, size=(20, 2))

모델 학습

이제 훈련 데이터를 사용하여 LOF 모델을 학습시키겠습니다. 이웃 수를 20 으로 설정하고, novelty 를 True 로, contamination 을 0.1 로 설정합니다.

clf = LocalOutlierFactor(n_neighbors=20, novelty=True, contamination=0.1)
clf.fit(X_train)

모델 평가

학습된 모델을 테스트 데이터와 이상치 데이터로 평가합니다. predict 메서드를 사용하여 테스트 데이터와 이상치 데이터의 레이블을 예측합니다. 그런 다음 테스트 데이터와 이상치 데이터에서 오류 수를 계산합니다.

y_pred_test = clf.predict(X_test)
y_pred_outliers = clf.predict(X_outliers)
n_error_test = y_pred_test[y_pred_test == -1].size
n_error_outliers = y_pred_outliers[y_pred_outliers == 1].size

결과 시각화

학습된 경계와 함께 훈련 데이터, 테스트 데이터, 이상치 데이터를 플롯하여 결과를 시각화합니다. 또한 테스트 데이터와 이상치 데이터의 오류 수를 표시합니다.

Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()])
Z = Z.reshape(xx.shape)

plt.title("LOF 를 이용한 신규 데이터 검출")
plt.contourf(xx, yy, Z, levels=np.linspace(Z.min(), 0, 7), cmap=plt.cm.PuBu)
a = plt.contour(xx, yy, Z, levels=[0], linewidths=2, colors="darkred")
plt.contourf(xx, yy, Z, levels=[0, Z.max()], colors="palevioletred")

s = 40
b1 = plt.scatter(X_train[:, 0], X_train[:, 1], c="white", s=s, edgecolors="k")
b2 = plt.scatter(X_test[:, 0], X_test[:, 1], c="blueviolet", s=s, edgecolors="k")
c = plt.scatter(X_outliers[:, 0], X_outliers[:, 1], c="gold", s=s, edgecolors="k")
plt.axis("tight")
plt.xlim((-5, 5))
plt.ylim((-5, 5))
plt.legend(
    [a.collections[0], b1, b2, c],
    [
        "학습된 경계",
        "훈련 관측치",
        "새로운 일반 관측치",
        "새로운 비정상 관측치",
    ],
    loc="upper left",
    prop=matplotlib.font_manager.FontProperties(size=11),
)
plt.xlabel(
    "오류 (새로운 일반: %d/40 ; 새로운 비정상: %d/40)"
    % (n_error_test, n_error_outliers)
)
plt.show()

요약

이 실험에서는 Local Outlier Factor (LOF) 알고리즘을 사용하여 신규 데이터 검출을 수행했습니다. 훈련 데이터, 테스트 데이터, 이상치 데이터를 생성하고, LOF 모델을 학습시키고, 모델을 평가하고, 결과를 시각화했습니다.