Einführung
Dieses Projekt soll Sie durch den Prozess der Erstellung eines einfachen TensorFlow-Modells, des Exports dieses Modells und der Bereitstellung über Docker und TensorFlow Serving führen. TensorFlow ist ein quelloffenes maschinelles Lernframework, und TensorFlow Serving ist ein flexibles, leistungsstarkes System zur Bereitstellung von maschinellen Lernmodellen. Docker-Container ermöglichen es, diese Modelle einfach und konsistent zu verpacken und bereitzustellen. Am Ende dieses Projekts werden Sie verstehen, wie Sie ein einfaches maschinelles Lernmodell in TensorFlow einrichten, es für die Bereitstellung exportieren und es mithilfe von TensorFlow Serving in einem Docker-Container deployen können.
👀 Vorschau
## Senden Sie eine Vorhersageanfrage an den TensorFlow Serving-Container
curl -X POST \
http://localhost:9501/v1/models/half_plus_two:predict \
-d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'
Ausgabe:
{
"predictions": [[2.5], [3.0], [4.5]
]
}
🎯 Aufgaben
In diesem Projekt werden Sie lernen:
- Wie Sie TensorFlow und die Abhängigkeiten von TensorFlow Serving installieren
- Wie Sie ein einfaches TensorFlow-Modell für grundlegende arithmetische Operationen erstellen
- Wie Sie das Modell in einem für die Bereitstellung mit TensorFlow Serving geeigneten Format exportieren
- Wie Sie das Modell mithilfe von Docker und TensorFlow Serving bereitstellen
- Wie Sie Vorhersageanfragen an das bereitgestellte Modell senden und Vorhersagen erhalten
🏆 Errungenschaften
Nach Abschluss dieses Projekts werden Sie in der Lage sein:
- Ein einfaches maschinelles Lernmodell in TensorFlow einzurichten
- Ein TensorFlow-Modell für die Bereitstellung zu exportieren
- Ein TensorFlow-Modell mithilfe von Docker und TensorFlow Serving zu deployen
- Vorhersageanfragen an das bereitgestellte Modell zu senden und die Ergebnisse zu beobachten