Introduction
Ce projet est conçu pour vous guider tout au long du processus de création d'un modèle TensorFlow simple, de son exportation, puis de son déploiement à l'aide de Docker et de TensorFlow Serving. TensorFlow est un framework open-source d'apprentissage automatique, et TensorFlow Serving est un système de déploiement flexible et performant pour les modèles d'apprentissage automatique. Les conteneurs Docker facilitent le packaging et le déploiement cohérent de ces modèles. À la fin de ce projet, vous comprendrez comment configurer un modèle d'apprentissage automatique de base dans TensorFlow, l'exporter pour le déploiement, et le déployer à l'aide de TensorFlow Serving dans un conteneur Docker.
👀 Aperçu
## Envoyer une demande de prédiction au conteneur TensorFlow Serving
curl -X POST \
http://localhost:9501/v1/models/half_plus_two:predict \
-d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'
Sortie :
{
"predictions": [[2.5], [3.0], [4.5]
]
}
🎯 Tâches
Dans ce projet, vous apprendrez :
- Comment installer les dépendances de TensorFlow et de TensorFlow Serving
- Comment créer un modèle TensorFlow simple pour des opérations arithmétiques de base
- Comment exporter le modèle dans un format adapté au déploiement avec TensorFlow Serving
- Comment déployer le modèle à l'aide de Docker et de TensorFlow Serving
- Comment envoyer des demandes de prédiction au modèle déployé et recevoir les prédictions
🏆 Réalisations
Après avoir terminé ce projet, vous serez en mesure de :
- Configurer un modèle d'apprentissage automatique de base dans TensorFlow
- Exporter un modèle TensorFlow pour le déploiement
- Déployer un modèle TensorFlow à l'aide de Docker et de TensorFlow Serving
- Envoyer des demandes de prédiction au modèle déployé et observer les résultats