10-0. 모델의 운영 이관

productionization

10-1. 파이토치에서 모델 서빙

<aside> 📌 프로세스

  1. 일부 입력 데이터와 이전에 훈련시켜 저장한 파이토치 모델의 위치가 주어지면 예측할 수 있는 추론 파이프라인을 구축
  2. 들어오는 데이터 요청을 받아 예측을 반환할 수 있는 모델 서버에 추론 파이프라인을 배치
  3. 모델 서버 개발 발전 → 도커(Docker)를 활용한 모델 마이크로서비스

</aside>

10-1-1. 파이토치 모델 추론 파이프라인 생성

훈련된 모델 저장 및 로딩

모델 저장 및 복원 방식

  1. 전체 모델 객체 저장(권장 x)

    torch.save(model, PATH_TO_MODEL)
    
    model = torch.load(PATH_TO_MODEL)
    
  2. 모델 매개변수만 저장

    torch.save(model.state_dict(), PATH_TO_MODEL)
    
    model = ConvNet()
    model.load_state_dict(torch.load(PATH_TO_MODEL))
    

추론 파이프라인 구축

단계

  1. 데이터 전처리
  2. 모델 추론
  3. 후처리

10-1-2. 기본적인 모델 서버 구축

플라스크로 모델 서버 구축하기