Introdução
Este projeto foi concebido para guiá-lo através do processo de criação de um modelo TensorFlow simples, exportá-lo e, em seguida, servi-lo usando Docker e TensorFlow Serving. TensorFlow é um framework de machine learning de código aberto, e TensorFlow Serving é um sistema de serviço flexível e de alto desempenho para modelos de machine learning. Contêineres Docker facilitam o empacotamento e a implantação consistente desses modelos. Ao final deste projeto, você entenderá como configurar um modelo básico de machine learning em TensorFlow, exportá-lo para serviço e implantá-lo usando TensorFlow Serving dentro de um contêiner Docker.
👀 Pré-visualização
## Enviar uma solicitação de predição para o contêiner TensorFlow Serving
curl -X POST \
http://localhost:9501/v1/models/half_plus_two:predict \
-d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'
Saída:
{
"predictions": [[2.5], [3.0], [4.5]
]
}
🎯 Tarefas
Neste projeto, você aprenderá:
- Como instalar as dependências do TensorFlow e TensorFlow Serving
- Como criar um modelo TensorFlow simples para operações aritméticas básicas
- Como exportar o modelo em um formato adequado para servir com TensorFlow Serving
- Como servir o modelo usando Docker e TensorFlow Serving
- Como enviar solicitações de predição para o modelo implantado e receber predições
🏆 Conquistas
Após concluir este projeto, você será capaz de:
- Configurar um modelo básico de machine learning em TensorFlow
- Exportar um modelo TensorFlow para serviço
- Implantar um modelo TensorFlow usando Docker e TensorFlow Serving
- Enviar solicitações de predição para o modelo implantado e observar os resultados


