머신러닝의 개발 및 운영을 효과적으로 관리
사람, 기술 및 프로세스의 조합입니다.
에이닷에 대화형 AI서비스 환경인 MLOps를 적용함.
사용?
온프라미스 데이터 센터에서 학습한 모델---- AWS S3에 업로드 --- Step Function -- SageMaker -- AWS Infrerentia에서 사용할 수 있도록 AWS Neuron SDK를 통해 컴파일된다.
SageMaker Model Registry에 등록되고, 머신러닝 모델의 버전 관리와 배포된 모델의 성능 추적에 SageMaker Model Registry가 활용된다.
데이터 센터의 관리자는 Model Registry에 등록되어 있는 모델 리스트를 확인하고 관리합니다.
사용자는 REST API를 통해 실시간 추론을 수행할 수 있는 완전 관리형 서비스인 SageMaker Endpoint에서 Inferentia 기반의 인스턴스를 통해 실시간 추론을 실행한다.
빠르고 효과적으로 모델을 배포하고 모니터링하고 있다.
개인화 추천 시스템에 대한 MLOps적용사례
3개의 디커플린 된 컴포넌트로 구성된 MLOps구성함.
동작 순서
1
데이터 과학자가 모델과 학습 파이프라인이 포함된 배포코드를 Gitlab에서 퍼블리시 - 젠킨스가 S3에 업로드
2
Airflow로 EMR에서 전처리된 데이터는 S3와 몽고디비로 적재된다.
3
S3에 업로드 데이터를 이벤트 브리지를 통해 CodeBuilder를 통해 SageMaker Piplines을 실행시킴
SageMaker Piplines은 전처리, 모델학습, 모델 등록등 과정을 순차적으로 수행.
람다를 통해 학습 후 배포된 모델을 SageMaker Endpoint에 업데이트한다.
4
실시간 추천 추론 서비스 단계?
Client Application 추론 요청을 API GW가 받아 람다로 보내 SageMaker Endpoint에 등록된 모델에게 추천 리스트르 요청하는 추론 요청을 보낸다.
답변함.
5
고객의 쇼핑 경험을 높아지게 됨.
참고 자료
https://catalog.us-east-1.prod.workshops.aws/workshops/a4bdb007-5600-4368-81c5-ff5b4154f518/en-US
https://github.com/aws-samples/amazon-bedrock-workshop
https://brunch.co.kr/@topasvga/3745
감사합니다.