Introducción
Este proyecto está diseñado para guiarte a través del proceso de creación de un modelo simple de TensorFlow, su exportación y luego su puesta en servicio utilizando Docker y TensorFlow Serving. TensorFlow es un marco de aprendizaje automático de código abierto, y TensorFlow Serving es un sistema de puesta en servicio flexible y de alto rendimiento para modelos de aprendizaje automático. Los contenedores de Docker facilitan el empaquetado y la implementación consistente de estos modelos. Al final de este proyecto, entenderás cómo configurar un modelo básico de aprendizaje automático en TensorFlow, exportarlo para su puesta en servicio y desplegarlo utilizando TensorFlow Serving dentro de un contenedor de Docker.
👀 Vista previa
## Send a prediction request to the TensorFlow Serving container
curl -X POST \
http://localhost:9501/v1/models/half_plus_two:predict \
-d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'
Salida:
{
"predictions": [[2.5], [3.0], [4.5]
]
}
🎯 Tareas
En este proyecto, aprenderás:
- Cómo instalar las dependencias de TensorFlow y TensorFlow Serving
- Cómo crear un modelo simple de TensorFlow para operaciones aritméticas básicas
- Cómo exportar el modelo en un formato adecuado para su puesta en servicio con TensorFlow Serving
- Cómo poner en servicio el modelo utilizando Docker y TensorFlow Serving
- Cómo enviar solicitudes de predicción al modelo desplegado y recibir predicciones
🏆 Logros
Después de completar este proyecto, podrás:
- Configurar un modelo básico de aprendizaje automático en TensorFlow
- Exportar un modelo de TensorFlow para su puesta en servicio
- Desplegar un modelo de TensorFlow utilizando Docker y TensorFlow Serving
- Enviar solicitudes de predicción al modelo desplegado y observar los resultados