Gewöhnliche kleinste Quadrate und Ridge-Regressions-Varianz

Machine LearningMachine LearningBeginner
Jetzt üben

This tutorial is from open-source community. Access the source code

💡 Dieser Artikel wurde von AI-Assistenten übersetzt. Um die englische Version anzuzeigen, können Sie hier klicken

Einführung

In diesem Lab verwenden wir die Python-Bibliothek scikit-learn, um den Unterschied zwischen der Ordinary Least Squares (OLS) und der Ridge Regression zu untersuchen. Wir werden untersuchen, wie diese beiden Methoden der linearen Regression mit Rauschen in den Daten umgehen und wie sich ihre Vorhersagen unterscheiden.

Tipps für die VM

Nachdem der VM-Start abgeschlossen ist, klicken Sie in der oberen linken Ecke, um zur Registerkarte Notebook zu wechseln und Jupyter Notebook für die Übung zu nutzen.

Manchmal müssen Sie einige Sekunden warten, bis Jupyter Notebook vollständig geladen ist. Die Validierung von Vorgängen kann aufgrund der Einschränkungen von Jupyter Notebook nicht automatisiert werden.

Wenn Sie bei der Lernphase Probleme haben, können Sie Labby gerne fragen. Geben Sie nach der Sitzung Feedback, und wir werden das Problem für Sie prompt beheben.


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL ml(("Machine Learning")) -.-> ml/FrameworkandSoftwareGroup(["Framework and Software"]) ml/FrameworkandSoftwareGroup -.-> ml/sklearn("scikit-learn") subgraph Lab Skills ml/sklearn -.-> lab-49230{{"Gewöhnliche kleinste Quadrate und Ridge-Regressions-Varianz"}} end

Bibliotheken importieren

In diesem Schritt importieren wir die erforderlichen Python-Bibliotheken.

import numpy as np
import matplotlib.pyplot as plt
from sklearn import linear_model

Daten erstellen

In diesem Schritt werden wir die Daten erstellen, die wir für unsere Analyse verwenden werden.

X_train = np.c_[0.5, 1].T
y_train = [0.5, 1]
X_test = np.c_[0, 2].T

Klassifizierer definieren

In diesem Schritt werden wir den OLS- und den Ridge-Regression-Klassifizierer definieren.

classifiers = dict(
    ols=linear_model.LinearRegression(), ridge=linear_model.Ridge(alpha=0.1)
)

Ergebnisse visualisieren

In diesem Schritt werden wir die Ergebnisse unserer Analyse visualisieren.

for name, clf in classifiers.items():
    fig, ax = plt.subplots(figsize=(4, 3))

    for _ in range(6):
        this_X = 0.1 * np.random.normal(size=(2, 1)) + X_train
        clf.fit(this_X, y_train)

        ax.plot(X_test, clf.predict(X_test), color="gray")
        ax.scatter(this_X, y_train, s=3, c="gray", marker="o", zorder=10)

    clf.fit(X_train, y_train)
    ax.plot(X_test, clf.predict(X_test), linewidth=2, color="blue")
    ax.scatter(X_train, y_train, s=30, c="red", marker="+", zorder=10)

    ax.set_title(name)
    ax.set_xlim(0, 2)
    ax.set_ylim((0, 1.6))
    ax.set_xlabel("X")
    ax.set_ylabel("y")

    fig.tight_layout()

plt.show()

Zusammenfassung

In diesem Lab haben wir gelernt, wie man die Python-Bibliothek scikit-learn verwendet, um den Unterschied zwischen der Ordinary Least Squares (OLS)-Regression und der Ridge-Regression zu untersuchen. Wir haben gesehen, wie diese beiden Methoden der linearen Regression mit Rauschen in den Daten umgehen und wie sich ihre Vorhersagen unterscheiden. Wir haben auch die Ergebnisse unserer Analyse visualisiert.