프로젝트 의 Docker 스킬 트리

간단한 TensorFlow 모델 배포

초급

이 프로젝트는 TensorFlow 모델 생성, TensorFlow Serving 을 위한 내보내기, Docker 를 이용한 배포를 다룹니다. 몇 가지 간결한 단계를 통해 모델을 설정, 서비스하고 테스트하여 예측에 접근할 수 있도록 하는 방법을 배우게 됩니다.

dockerdevops

💡 이 튜토리얼은 영어로 번역되었습니다. 원본을 보려면 영어로 전환

소개

이 프로젝트는 간단한 TensorFlow 모델을 생성하고, 이를 내보낸 다음 Docker 와 TensorFlow Serving 을 사용하여 서비스하는 과정을 안내하도록 설계되었습니다. TensorFlow 는 오픈 소스 머신 러닝 프레임워크이며, TensorFlow Serving 은 머신 러닝 모델을 위한 유연하고 고성능의 서비스 시스템입니다. Docker 컨테이너는 이러한 모델을 일관되게 패키징하고 배포하는 것을 쉽게 만들어줍니다. 이 프로젝트를 완료하면 TensorFlow 에서 기본적인 머신 러닝 모델을 설정하고, 서비스할 수 있도록 내보낸 다음, Docker 컨테이너 내에서 TensorFlow Serving 을 사용하여 배포하는 방법을 이해하게 됩니다.

👀 미리보기

## TensorFlow Serving 컨테이너에 예측 요청을 보냅니다.
curl -X POST \
  http://localhost:9501/v1/models/half_plus_two:predict \
  -d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'

출력:

{
  "predictions": [[2.5], [3.0], [4.5]
  ]
}

🎯 작업

이 프로젝트에서는 다음을 배우게 됩니다:

  • TensorFlow 및 TensorFlow Serving 종속성 설치 방법
  • 기본적인 산술 연산을 위한 간단한 TensorFlow 모델 생성 방법
  • TensorFlow Serving 으로 서비스하기에 적합한 형식으로 모델을 내보내는 방법
  • Docker 및 TensorFlow Serving 을 사용하여 모델을 서비스하는 방법
  • 배포된 모델에 예측 요청을 보내고 예측 결과를 받는 방법

🏆 성과

이 프로젝트를 완료하면 다음을 수행할 수 있습니다:

  • TensorFlow 에서 기본적인 머신 러닝 모델 설정
  • 서비스할 TensorFlow 모델 내보내기
  • Docker 및 TensorFlow Serving 을 사용하여 TensorFlow 모델 배포
  • 배포된 모델에 예측 요청을 보내고 결과를 관찰

강사

labby
Labby
Labby is the LabEx teacher.

추천 코스

no data