Déploiement d'un modèle TensorFlow simple

Débutant

Ce projet porte sur la création d'un modèle TensorFlow, son export pour TensorFlow Serving et son déploiement avec Docker. Vous apprendrez à configurer, servir et tester votre modèle en quelques étapes concises, le rendant accessible pour les prédictions.

LinuxDockerMachine Learning

💡 Ce tutoriel est traduit par l'IA à partir de la version anglaise. Pour voir la version originale, vous pouvez cliquer ici

Introduction

Ce projet est conçu pour vous guider tout au long du processus de création d'un modèle TensorFlow simple, de son exportation, puis de son déploiement à l'aide de Docker et de TensorFlow Serving. TensorFlow est un framework open-source d'apprentissage automatique, et TensorFlow Serving est un système de déploiement flexible et performant pour les modèles d'apprentissage automatique. Les conteneurs Docker facilitent le packaging et le déploiement cohérent de ces modèles. À la fin de ce projet, vous comprendrez comment configurer un modèle d'apprentissage automatique de base dans TensorFlow, l'exporter pour le déploiement, et le déployer à l'aide de TensorFlow Serving dans un conteneur Docker.

👀 Aperçu

## Envoyer une demande de prédiction au conteneur TensorFlow Serving
curl -X POST \
  http://localhost:9501/v1/models/half_plus_two:predict \
  -d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'

Sortie :

{
  "predictions": [[2.5], [3.0], [4.5]
  ]
}

🎯 Tâches

Dans ce projet, vous apprendrez :

  • Comment installer les dépendances de TensorFlow et de TensorFlow Serving
  • Comment créer un modèle TensorFlow simple pour des opérations arithmétiques de base
  • Comment exporter le modèle dans un format adapté au déploiement avec TensorFlow Serving
  • Comment déployer le modèle à l'aide de Docker et de TensorFlow Serving
  • Comment envoyer des demandes de prédiction au modèle déployé et recevoir les prédictions

🏆 Réalisations

Après avoir terminé ce projet, vous serez en mesure de :

  • Configurer un modèle d'apprentissage automatique de base dans TensorFlow
  • Exporter un modèle TensorFlow pour le déploiement
  • Déployer un modèle TensorFlow à l'aide de Docker et de TensorFlow Serving
  • Envoyer des demandes de prédiction au modèle déployé et observer les résultats

Enseignant

labby

Labby

Labby is the LabEx teacher.

Recommandé pour vous

no data