brunch

You can make anything
by writing

C.S.Lewis

by Master Seo Mar 26. 2024

AWS 48탄-9. MLOps

<1> MLOps?

<2> MLOps 사례 : SK텔레콤

<3> MLOps 사례 : 롯데 ON

<4> Amazon Bedrock Workshop



<1> MLOps?


머신러닝의 개발 및 운영을 효과적으로 관리

사람, 기술 및 프로세스의 조합입니다.





<2> MLOps 사례 : SK텔레콤


에이닷에 대화형 AI서비스 환경인 MLOps를 적용함.




사용?

온프라미스 데이터 센터에서 학습한 모델---- AWS S3에 업로드 --- Step Function -- SageMaker -- AWS Infrerentia에서 사용할 수 있도록 AWS Neuron SDK를 통해 컴파일된다.


SageMaker Model Registry에 등록되고, 머신러닝 모델의 버전 관리와 배포된 모델의 성능 추적에 SageMaker Model Registry가 활용된다.


데이터 센터의 관리자는  Model Registry에 등록되어 있는 모델 리스트를 확인하고 관리합니다.


사용자는 REST API를 통해 실시간 추론을 수행할 수 있는 완전 관리형 서비스인 SageMaker Endpoint에서 Inferentia 기반의 인스턴스를 통해 실시간 추론을 실행한다.


빠르고 효과적으로 모델을 배포하고 모니터링하고 있다.




<3> MLOps 사례 : 롯데 ON


개인화 추천 시스템에 대한 MLOps적용사례

3개의 디커플린 된 컴포넌트로 구성된 MLOps구성함.



동작 순서


1

데이터 과학자가 모델과 학습 파이프라인이 포함된 배포코드를 Gitlab에서 퍼블리시 - 젠킨스가 S3에 업로드


2

Airflow로  EMR에서 전처리된 데이터는 S3와 몽고디비로 적재된다.



3

S3에 업로드 데이터를 이벤트 브리지를 통해 CodeBuilder를 통해 SageMaker Piplines을 실행시킴

SageMaker Piplines은 전처리, 모델학습, 모델 등록등 과정을 순차적으로 수행.

람다를  통해 학습 후 배포된 모델을 SageMaker Endpoint에 업데이트한다.


4

실시간 추천 추론 서비스 단계?

Client Application 추론 요청을 API GW가 받아 람다로 보내  SageMaker Endpoint에 등록된 모델에게 추천 리스트르  요청하는 추론 요청을 보낸다.

답변함.


5

고객의 쇼핑 경험을 높아지게 됨.



참고 자료

https://aws.amazon.com/ko/blogs/tech/fmops-llmops-operationalize-generative-ai-and-differences-with-mlops/




<4> Amazon Bedrock Workshop


https://catalog.us-east-1.prod.workshops.aws/workshops/a4bdb007-5600-4368-81c5-ff5b4154f518/en-US


https://github.com/aws-samples/amazon-bedrock-workshop



다음 AI

https://brunch.co.kr/@topasvga/3745

감사합니다.

매거진의 이전글 AWS 48탄-8. 파운데이션 모델의 파인 튜닝
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari