プロジェクト の Docker スキルツリー

シンプルな TensorFlow モデルのデプロイ

初級

このプロジェクトでは、TensorFlow モデルの作成、TensorFlow Serving 用にエクスポート、および Docker を使用したデプロイについて説明します。数ステップでモデルのセットアップ、サービング、テストを行い、予測に利用できるようにする方法を学びます。

dockerdevops

💡 このチュートリアルは英語版からAIによって翻訳されています。原文を確認するには、 ここをクリックしてください

はじめに

このプロジェクトでは、簡単な TensorFlow モデルを作成し、エクスポートし、その後 Docker と TensorFlow Serving を使ってサービングするまでのプロセスを案内します。TensorFlow はオープンソースの機械学習フレームワークであり、TensorFlow Serving は機械学習モデル用の柔軟で高性能なサービングシステムです。Docker コンテナを使うことで、これらのモデルを一貫してパッケージ化して展開することができます。このプロジェクトが終了するとき、TensorFlow で基本的な機械学習モデルをセットアップし、サービング用にエクスポートし、Docker コンテナ内で TensorFlow Serving を使って展開する方法を理解するようになります。

👀 プレビュー

## TensorFlow Servingコンテナに予測リクエストを送信する
curl -X POST \
  http://localhost:9501/v1/models/half_plus_two:predict \
  -d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'

出力:

{
  "predictions": [[2.5], [3.0], [4.5]
  ]
}

🎯 タスク

このプロジェクトでは、以下を学びます。

  • TensorFlow と TensorFlow Serving の依存関係をインストールする方法
  • 基本的な算術演算用の簡単な TensorFlow モデルを作成する方法
  • TensorFlow Serving でサービングするのに適した形式でモデルをエクスポートする方法
  • Docker と TensorFlow Serving を使ってモデルをサービングする方法
  • 展開されたモデルに予測リクエストを送信し、予測結果を受け取る方法

🏆 成果

このプロジェクトを完了すると、以下のことができるようになります。

  • TensorFlow で基本的な機械学習モデルをセットアップする
  • サービング用に TensorFlow モデルをエクスポートする
  • Docker と TensorFlow Serving を使って TensorFlow モデルを展開する
  • 展開されたモデルに予測リクエストを送信し、結果を観察する
これは Guided Lab です。学習と実践を支援するためのステップバイステップの指示を提供します。各ステップを完了し、実践的な経験を積むために、指示に注意深く従ってください。過去のデータによると、この 中級 レベルの実験の完了率は 78%です。学習者から 86% の好評価を得ています。

講師

labby
Labby
Labby is the LabEx teacher.

おすすめ

no data