介绍
本项目旨在引导你完成创建一个简单的 TensorFlow 模型、导出模型并使用 Docker 和 TensorFlow Serving 进行服务的过程。TensorFlow 是一个开源的机器学习框架,而 TensorFlow Serving 是一个灵活且高性能的机器学习模型服务系统。Docker 容器使得打包和部署这些模型变得简单且一致。通过完成本项目,你将了解如何在 TensorFlow 中设置一个基本的机器学习模型,将其导出以供服务,并在 Docker 容器中使用 TensorFlow Serving 进行部署。
👀 预览
## 向 TensorFlow Serving 容器发送预测请求
curl -X POST \
http://localhost:9501/v1/models/half_plus_two:predict \
-d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'
输出:
{
"predictions": [[2.5], [3.0], [4.5]
]
}
🎯 任务
在本项目中,你将学习:
- 如何安装 TensorFlow 和 TensorFlow Serving 的依赖项
- 如何创建一个简单的 TensorFlow 模型用于基本算术运算
- 如何以适合 TensorFlow Serving 的格式导出模型
- 如何使用 Docker 和 TensorFlow Serving 服务模型
- 如何向部署的模型发送预测请求并接收预测结果
🏆 成就
完成本项目后,你将能够:
- 在 TensorFlow 中设置一个基本的机器学习模型
- 导出 TensorFlow 模型以供服务
- 使用 Docker 和 TensorFlow Serving 部署 TensorFlow 模型
- 向部署的模型发送预测请求并观察结果