はじめに
このプロジェクトでは、簡単な TensorFlow モデルを作成し、エクスポートし、その後 Docker と TensorFlow Serving を使ってサービングするまでのプロセスを案内します。TensorFlow はオープンソースの機械学習フレームワークであり、TensorFlow Serving は機械学習モデル用の柔軟で高性能なサービングシステムです。Docker コンテナを使うことで、これらのモデルを一貫してパッケージ化して展開することができます。このプロジェクトが終了するとき、TensorFlow で基本的な機械学習モデルをセットアップし、サービング用にエクスポートし、Docker コンテナ内で TensorFlow Serving を使って展開する方法を理解するようになります。
👀 プレビュー
## TensorFlow Servingコンテナに予測リクエストを送信する
curl -X POST \
http://localhost:9501/v1/models/half_plus_two:predict \
-d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'
出力:
{
"predictions": [[2.5], [3.0], [4.5]
]
}
🎯 タスク
このプロジェクトでは、以下を学びます。
- TensorFlow と TensorFlow Serving の依存関係をインストールする方法
- 基本的な算術演算用の簡単な TensorFlow モデルを作成する方法
- TensorFlow Serving でサービングするのに適した形式でモデルをエクスポートする方法
- Docker と TensorFlow Serving を使ってモデルをサービングする方法
- 展開されたモデルに予測リクエストを送信し、予測結果を受け取る方法
🏆 成果
このプロジェクトを完了すると、以下のことができるようになります。
- TensorFlow で基本的な機械学習モデルをセットアップする
- サービング用に TensorFlow モデルをエクスポートする
- Docker と TensorFlow Serving を使って TensorFlow モデルを展開する
- 展開されたモデルに予測リクエストを送信し、結果を観察する