部署一个简单的 TensorFlow 模型

初级

本项目涵盖创建 TensorFlow 模型、将其导出以用于 TensorFlow Serving,并使用 Docker 进行部署。你将通过几个简洁的步骤学习如何设置、服务和测试你的模型,使其可用于预测。

LinuxDockerMachine Learning

💡 本教程由 AI 辅助翻译自英文原版。如需查看原文,您可以 切换至英文原版

介绍

本项目旨在引导你完成创建一个简单的 TensorFlow 模型、导出模型并使用 Docker 和 TensorFlow Serving 进行服务的过程。TensorFlow 是一个开源的机器学习框架,而 TensorFlow Serving 是一个灵活且高性能的机器学习模型服务系统。Docker 容器使得打包和部署这些模型变得简单且一致。通过完成本项目,你将了解如何在 TensorFlow 中设置一个基本的机器学习模型,将其导出以供服务,并在 Docker 容器中使用 TensorFlow Serving 进行部署。

👀 预览

## 向 TensorFlow Serving 容器发送预测请求
curl -X POST \
  http://localhost:9501/v1/models/half_plus_two:predict \
  -d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'

输出:

{
  "predictions": [[2.5], [3.0], [4.5]
  ]
}

🎯 任务

在本项目中,你将学习:

  • 如何安装 TensorFlow 和 TensorFlow Serving 的依赖项
  • 如何创建一个简单的 TensorFlow 模型用于基本算术运算
  • 如何以适合 TensorFlow Serving 的格式导出模型
  • 如何使用 Docker 和 TensorFlow Serving 服务模型
  • 如何向部署的模型发送预测请求并接收预测结果

🏆 成就

完成本项目后,你将能够:

  • 在 TensorFlow 中设置一个基本的机器学习模型
  • 导出 TensorFlow 模型以供服务
  • 使用 Docker 和 TensorFlow Serving 部署 TensorFlow 模型
  • 向部署的模型发送预测请求并观察结果

教师

labby

Labby

Labby is the LabEx teacher.

为您推荐

no data