Введение
Этот проект предназначен для того, чтобы помочь вам пройти процесс создания простой модели TensorFlow, экспорта ее и последующего развертывания с использованием Docker и TensorFlow Serving. TensorFlow - это открытый фреймворк машинного обучения, а TensorFlow Serving - это гибкая система высокой производительности для развертывания моделей машинного обучения. Контейнеры Docker позволяют легко упаковывать и развертывать эти модели в согласованном виде. По завершении этого проекта вы поймете, как настроить базовую модель машинного обучения в TensorFlow, экспортировать ее для развертывания и развернуть с использованием TensorFlow Serving внутри контейнера Docker.
👀 Предварительный просмотр
## Отправить запрос на предсказание в контейнер TensorFlow Serving
curl -X POST \
http://localhost:9501/v1/models/half_plus_two:predict \
-d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'
Вывод:
{
"predictions": [[2.5], [3.0], [4.5]
]
}
🎯 Задачи
В этом проекте вы научитесь:
- Устанавливать зависимости TensorFlow и TensorFlow Serving
- Создавать простую модель TensorFlow для базовых арифметических операций
- Экспортировать модель в формате, подходящем для развертывания с использованием TensorFlow Serving
- Развертывать модель с использованием Docker и TensorFlow Serving
- Отправлять запросы на предсказание в развернутую модель и получать предсказания
🏆 Достижения
После завершения этого проекта вы сможете:
- Настроить базовую модель машинного обучения в TensorFlow
- Экспортировать модель TensorFlow для развертывания
- Развернуть модель TensorFlow с использованием Docker и TensorFlow Serving
- Отправлять запросы на предсказание в развернутую модель и наблюдать за результатами