
Klassifizierung von Iris mit SVM
In diesem Projekt wirst du lernen, wie du den Iris-Datensatz mit einem Support Vector Classifier (SVC)-Modell klassifizierst. Der Iris-Datensatz ist ein klassisches Machine-Learning-Datensatz, der Informationen über verschiedene Iris-Arten enthält, einschließlich ihrer Kelchblätchenlänge, Kelchblätchenbreite, Blütenblattlänge und Blütenblattbreite.
Pythonscikit-learn

Kernel Ridge Regression
In diesem Lab werden wir über Kernel Ridge Regression (KRR) und deren Implementierung mit der scikit-learn-Bibliothek in Python lernen. KRR kombiniert Ridge Regression mit dem Kernel-Trick, um eine lineare Funktion im durch den Kernel induzierten Raum zu lernen. Es ist eine Methode zur nicht-linearen Regression, die nicht-lineare Zusammenhänge zwischen Eingangs- und Ausgangsvariablen behandeln kann.
Machine Learningscikit-learn

Lineare Modelle in Scikit-Learn
In diesem Lab werden wir lineare Modelle in Scikit-Learn untersuchen. Lineare Modelle sind eine Gruppe von Methoden, die für Regressions- und Klassifizierungstasks verwendet werden. Sie gehen davon aus, dass die Zielvariable eine lineare Kombination der Merkmale ist. Diese Modelle werden aufgrund ihrer Einfachheit und Interpretierbarkeit in der Maschinellen Lernereiweitgehend verwendet.
Machine Learningscikit-learn

Erklärung der Diskriminanzanalyse-Klassifikatoren
Lineare und quadratische Diskriminanzanalyse (Linear and Quadratic Discriminant Analysis, LDA und QDA) sind zwei klassische Klassifikatoren, die im maschinellen Lernen (machine learning) verwendet werden. LDA nutzt eine lineare Entscheidungsfläche, während QDA eine quadratische Entscheidungsfläche verwendet. Diese Klassifikatoren sind beliebt, weil sie geschlossene Lösungen haben, in der Praxis gut funktionieren und keine Hyperparameter zur Anpassung erfordern.
Machine Learningscikit-learn

Das Entdecken von Scikit-Learn-Datensätzen und -Schätzern
In diesem Lab werden wir die Einstellungen und das Schätzerobjekt in Scikit-Learn, einer beliebten Machine-Learning-Bibliothek in Python, untersuchen. Wir werden uns mit Datensätzen beschäftigen, die als 2D-Arrays dargestellt werden, und lernen, wie man sie für Scikit-Learn vorverarbeiten. Wir werden auch das Konzept von Schätzerobjekten erkunden, die zum Lernen aus Daten und zum Vorhersagen verwendet werden.
Machine Learningscikit-learn

Das Entdecken von Scikit-Learn SGD-Klassifizierern
In diesem Lab werden wir die Stochastic Gradient Descent (SGD) untersuchen, ein leistungsstarkes Optimierungsalgorithmus, der in der Maschinellen Lernung häufig zur Lösung von großskaligen und dünn besetzten Problemen verwendet wird. Wir werden lernen, wie man die SGDClassifier- und SGDRegressor-Klassen aus der scikit-learn-Bibliothek verwendet, um lineare Klassifizierer und Regressoren zu trainieren.
Machine Learningscikit-learn

Arbeiten mit Text-Daten
In diesem Lab werden wir untersuchen, wie man mit Text-Daten mit scikit-learn, einer beliebten Machine-Learning-Bibliothek in Python, umgeht. Wir werden lernen, wie man Text-Daten lädt, vorverarbeitet, Merkmale extrahiert, ein Modell trainiert und seine Leistung auswertet.
Machine Learningscikit-learn

Erkundung von Ensemble-Methoden mit Scikit-Learn
In diesem Lab werden wir Ensemble-Methoden mit Scikit-Learn erkunden. Ensemble-Methoden sind maschinelle Lerntechniken, die mehrere Modelle kombinieren, um eine bessere Leistung als ein einzelnes Modell zu erzielen. Wir werden uns speziell auf zwei beliebte Ensemble-Methoden konzentrieren: Bagging und Random Forests.
Machine Learningscikit-learn

Nichtlineare Regression mit Isotoner Regression
In diesem Lab werden wir die isotone Regression mit scikit-learn untersuchen. Die isotone Regression ist eine Technik, die eine nicht-abnehmende Funktion auf eindimensionale Daten passt. Sie ist nützlich, wenn Sie Daten haben, die die Lineareitätsannahme in einem Regressionsmodell nicht erfüllen.
Machine Learningscikit-learn

Multiclass- und Multioutput-Algorithmen
In diesem Lab werden wir die Funktionalität und den Gebrauch von Multiclass- und Multioutput-Algorithmen in scikit-learn untersuchen. Multiclass-Klassifikation ist eine Klassifizierungstask, bei der Proben mehreren als zwei Klassen zugewiesen werden. Multioutput-Klassifikation hingegen prognostiziert mehrere Eigenschaften für jede Probe. Wir werden die folgenden Themen behandeln:
Machine Learningscikit-learn

Supervised Learning mit Scikit-Learn
Beim supervised learning möchten wir die Beziehung zwischen zwei Datensätzen lernen: den beobachteten Daten X und einer externen Variable y, die wir vorherzusagen wünschen.
Machine Learningscikit-learn

Gaussian Process Regression und Klassifikation
In diesem Lab werden wir Gaussian Prozesse (GP), eine Methode für das überwachte Lernen, die für Regressions- und probabilistische Klassifizierungsprobleme verwendet wird, untersuchen. Gaussian Prozesse sind vielseitig und können Beobachtungen interpolieren, probabilistische Vorhersagen liefern und verschiedene Typen von Kernen verarbeiten. In diesem Lab werden wir uns auf die Gaussian Process Regression (GPR) und die Gaussian Process Classification (GPC) konzentrieren, indem wir die scikit-learn-Bibliothek verwenden.
Machine Learningscikit-learn

Entscheidungsbaum-Klassifizierung mit Scikit-Learn
In diesem Lab werden wir lernen, wie man Entscheidungsbäume (Decision Trees) mit Scikit-learn für Klassifizierungsaufgaben verwendet. Entscheidungsbäume sind eine nicht-parametrische überwachte Lernmethode, die für Klassifizierung und Regression eingesetzt wird. Sie sind einfach zu verstehen und zu interpretieren und können sowohl numerische als auch kategorische Daten verarbeiten.
Machine Learningscikit-learn

Modellauswahl: Auswahl von Schätzern und deren Parametern
Beim maschinellen Lernen ist die Modellauswahl der Prozess, den besten Modell für einen gegebenen Datensatz auszuwählen. Dazu gehört die Auswahl des geeigneten Schätzers und die Optimierung seiner Parameter, um die optimale Leistung zu erzielen. In diesem Tutorial führen wir Sie durch den Prozess der Modellauswahl in scikit-learn.
Machine Learningscikit-learn

Halbüberwachte Lernalgorithmen
In diesem Lab werden wir das Konzept des halbüberwachten Lernens erkunden, das eine Art maschinelles Lernen ist, bei dem einige der Trainingsdaten markiert und einige unmarkiert sind. Halbüberwachte Lernalgorithmen können die unmarkierten Daten nutzen, um die Leistung des Modells zu verbessern und sich besser auf neue Proben zu verallgemeinern. Dies ist besonders nützlich, wenn wir nur eine kleine Menge markierter Daten haben, aber eine große Menge unmarkierter Daten.
Machine Learningscikit-learn

Neuronale Netzwerkmodelle
In diesem Lab werden wir uns mit neuronalen Netzwerkmodellen und deren Verwendung in überwachten Lernaufgaben befassen. Neurale Netze sind eine beliebte Art von Machine-Learning-Algorithmen, die nicht-lineare Muster in Daten lernen können. Sie werden häufig für Klassifizierungs- und Regressionsaufgaben eingesetzt.
Machine Learningscikit-learn

Implementierung des stochastischen Gradientenabstiegs
Der stochastische Gradientenabstieg (Stochastic Gradient Descent, SGD) ist ein beliebter Optimierungsalgorithmus, der in der Maschinellen Lernens (Machine Learning) eingesetzt wird. Es ist eine Variante des Gradientenabstiegsalgorithmus, die bei jeder Iteration eine zufällig ausgewählte Teilmenge der Trainingsdaten verwendet. Dies macht es rechnerisch effizient und geeignet für die Verarbeitung großer Datensätze. In diesem Lab werden wir die Schritte zur Implementierung von SGD in Python mit scikit-learn durchgehen.
Machine Learningscikit-learn

Naives Bayes-Beispiel
In diesem Lab werden wir ein Beispiel für die Verwendung von Naiven Bayes-Klassifizierern aus der scikit-learn-Bibliothek in Python durchgehen. Naive Bayes-Klassifizierer sind eine Gruppe von Supervised-Learning-Algorithmen, die häufig für Klassifizierungstasks verwendet werden. Diese Klassifizierer basieren auf der Anwendung des Bayes'schen Theorems unter der Annahme von bedingter Unabhängigkeit zwischen jeder Paarung von Merkmalen bei gegebener Wert der Klassenvariable.
Machine Learningscikit-learn