Einführung
In diesem Lab wird gezeigt, wie die Klassifizierung mit nächsten Nachbarn mit und ohne Neighborhood Components Analysis (NCA) verglichen werden kann. Wir werden die Klassifizierungsgrenzen, die von einem nächsten Nachbarn-Klassifizierer angegeben werden, bei der Verwendung der euklidischen Distanz auf den ursprünglichen Merkmalen und bei der Verwendung der euklidischen Distanz nach der durch Neighborhood Components Analysis gelernten Transformation, darstellen. Letzteres zielt darauf ab, eine lineare Transformation zu finden, die die (stochastische) Genauigkeit der nächsten-Nachbarn-Klassifizierung auf dem Trainingssatz maximiert. Wir werden den Iris-Datensatz verwenden, der 3 Klassen mit jeweils 50 Instanzen enthält.
Tipps für die VM
Nachdem der VM-Start abgeschlossen ist, klicken Sie in der oberen linken Ecke, um zur Registerkarte Notebook zu wechseln und Jupyter Notebook für die Übung zu nutzen.
Manchmal müssen Sie einige Sekunden warten, bis Jupyter Notebook vollständig geladen ist. Die Validierung von Vorgängen kann aufgrund von Einschränkungen in Jupyter Notebook nicht automatisiert werden.
Wenn Sie bei der Lernphase Probleme haben, können Sie Labby gerne fragen. Geben Sie nach der Sitzung Feedback, und wir werden das Problem für Sie prompt beheben.