Berechnung des Accuracy Scores mit accuracy_score aus sklearn.metrics
In diesem Schritt berechnen wir die Genauigkeit der Vorhersagen unseres Modells. Die Genauigkeit (Accuracy) ist eine der einfachsten Klassifikationsmetriken. Sie misst das Verhältnis der korrekt vorhergesagten Instanzen zur Gesamtzahl der Instanzen.
Die Funktion accuracy_score aus sklearn.metrics berechnet diesen Wert. Sie nimmt die wahren Labels und die vorhergesagten Labels als Argumente entgegen.
Öffnen Sie zunächst die Datei evaluate.py im Dateiexplorer auf der linken Seite. Die Datei enthält bereits die Listen y_true und y_pred. Fügen Sie nun den folgenden Code am Ende der Datei hinzu, um die Funktion accuracy_score zu importieren, die Genauigkeit zu berechnen und das Ergebnis auszugeben.
from sklearn.metrics import accuracy_score
## Genauigkeit berechnen
accuracy = accuracy_score(y_true, y_pred)
print(f"Accuracy: {accuracy}")
Ihre vollständige Datei evaluate.py sollte nun wie folgt aussehen:
## In diesem Lab verwenden wir einen vordefinierten Satz von wahren Labels und vorhergesagten Labels,
## um verschiedene Bewertungsmetriken zu verstehen.
## y_true repräsentiert die tatsächlichen, Ground-Truth-Labels für unsere Datenpunkte.
## Bei einer binären Klassifizierung könnte 0 'negativ' und 1 'positiv' bedeuten.
y_true = [0, 1, 1, 0, 1, 0, 0, 1, 0, 1]
## y_pred repräsentiert die von unserem hypothetischen Klassifikationsmodell vorhergesagten Labels.
y_pred = [0, 1, 0, 0, 1, 1, 0, 1, 0, 1]
print("Setup abgeschlossen. Wahre und vorhergesagte Labels sind in evaluate.py definiert.")
print(f"Wahre Labels: {y_true}")
print(f"Vorhergesagte Labels: {y_pred}")
from sklearn.metrics import accuracy_score
## Genauigkeit berechnen
accuracy = accuracy_score(y_true, y_pred)
print(f"Accuracy: {accuracy}")
Lassen Sie uns nun das Skript ausführen. Öffnen Sie das Terminal in Ihrer IDE und führen Sie den folgenden Befehl aus:
python3 evaluate.py
Sie sollten die folgende Ausgabe sehen, die den Genauigkeitswert enthält. Eine Genauigkeit von 0,8 bedeutet, dass 80 % der Vorhersagen korrekt waren.
Setup complete. True and predicted labels are defined in evaluate.py.
True labels: [0, 1, 1, 0, 1, 0, 0, 1, 0, 1]
Predicted labels: [0, 1, 0, 0, 1, 1, 0, 1, 0, 1]
Accuracy: 0.8