소개
이 프로젝트는 간단한 TensorFlow 모델을 생성하고, 이를 내보낸 다음 Docker 와 TensorFlow Serving 을 사용하여 서비스하는 과정을 안내하도록 설계되었습니다. TensorFlow 는 오픈 소스 머신 러닝 프레임워크이며, TensorFlow Serving 은 머신 러닝 모델을 위한 유연하고 고성능의 서비스 시스템입니다. Docker 컨테이너는 이러한 모델을 일관되게 패키징하고 배포하는 것을 쉽게 만들어줍니다. 이 프로젝트를 완료하면 TensorFlow 에서 기본적인 머신 러닝 모델을 설정하고, 서비스할 수 있도록 내보낸 다음, Docker 컨테이너 내에서 TensorFlow Serving 을 사용하여 배포하는 방법을 이해하게 됩니다.
👀 미리보기
## TensorFlow Serving 컨테이너에 예측 요청을 보냅니다.
curl -X POST \
http://localhost:9501/v1/models/half_plus_two:predict \
-d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'
출력:
{
"predictions": [[2.5], [3.0], [4.5]
]
}
🎯 작업
이 프로젝트에서는 다음을 배우게 됩니다:
- TensorFlow 및 TensorFlow Serving 종속성 설치 방법
- 기본적인 산술 연산을 위한 간단한 TensorFlow 모델 생성 방법
- TensorFlow Serving 으로 서비스하기에 적합한 형식으로 모델을 내보내는 방법
- Docker 및 TensorFlow Serving 을 사용하여 모델을 서비스하는 방법
- 배포된 모델에 예측 요청을 보내고 예측 결과를 받는 방법
🏆 성과
이 프로젝트를 완료하면 다음을 수행할 수 있습니다:
- TensorFlow 에서 기본적인 머신 러닝 모델 설정
- 서비스할 TensorFlow 모델 내보내기
- Docker 및 TensorFlow Serving 을 사용하여 TensorFlow 모델 배포
- 배포된 모델에 예측 요청을 보내고 결과를 관찰



