프로젝트 의 Docker 스킬 트리

간단한 TensorFlow 모델 배포

초급

이 프로젝트는 TensorFlow 모델 생성, TensorFlow Serving 을 위한 내보내기, Docker 를 이용한 배포를 다룹니다. 몇 가지 간결한 단계를 통해 모델을 설정, 서비스하고 테스트하여 예측에 접근할 수 있도록 하는 방법을 배우게 됩니다.

dockerdevops

💡 이 튜토리얼은 영어로 번역되었습니다. 원본을 보려면 영어로 전환

소개

이 프로젝트는 간단한 TensorFlow 모델을 생성하고, 이를 내보낸 다음 Docker 와 TensorFlow Serving 을 사용하여 서비스하는 과정을 안내하도록 설계되었습니다. TensorFlow 는 오픈 소스 머신 러닝 프레임워크이며, TensorFlow Serving 은 머신 러닝 모델을 위한 유연하고 고성능의 서비스 시스템입니다. Docker 컨테이너는 이러한 모델을 일관되게 패키징하고 배포하는 것을 쉽게 만들어줍니다. 이 프로젝트를 완료하면 TensorFlow 에서 기본적인 머신 러닝 모델을 설정하고, 서비스할 수 있도록 내보낸 다음, Docker 컨테이너 내에서 TensorFlow Serving 을 사용하여 배포하는 방법을 이해하게 됩니다.

👀 미리보기

## TensorFlow Serving 컨테이너에 예측 요청을 보냅니다.
curl -X POST \
  http://localhost:9501/v1/models/half_plus_two:predict \
  -d '{"signature_name":"serving_default","instances":[[1.0], [2.0], [5.0]]}'

출력:

{
  "predictions": [[2.5], [3.0], [4.5]
  ]
}

🎯 작업

이 프로젝트에서는 다음을 배우게 됩니다:

  • TensorFlow 및 TensorFlow Serving 종속성 설치 방법
  • 기본적인 산술 연산을 위한 간단한 TensorFlow 모델 생성 방법
  • TensorFlow Serving 으로 서비스하기에 적합한 형식으로 모델을 내보내는 방법
  • Docker 및 TensorFlow Serving 을 사용하여 모델을 서비스하는 방법
  • 배포된 모델에 예측 요청을 보내고 예측 결과를 받는 방법

🏆 성과

이 프로젝트를 완료하면 다음을 수행할 수 있습니다:

  • TensorFlow 에서 기본적인 머신 러닝 모델 설정
  • 서비스할 TensorFlow 모델 내보내기
  • Docker 및 TensorFlow Serving 을 사용하여 TensorFlow 모델 배포
  • 배포된 모델에 예측 요청을 보내고 결과를 관찰
이것은 가이드 실험입니다. 학습과 실습을 돕기 위한 단계별 지침을 제공합니다.각 단계를 완료하고 실무 경험을 쌓기 위해 지침을 주의 깊게 따르세요. 과거 데이터에 따르면, 이것은 중급 레벨의 실험이며 완료율은 78%입니다.학습자들로부터 86%의 긍정적인 리뷰율을 받았습니다.

강사

labby
Labby
Labby is the LabEx teacher.

추천 코스

no data