Amazon Web Services
최근 LLM(Large Language Model)의 발전과 함께, 경량화된 sLLM(small Language Model) 또한 놀라운 성능 향상을 보이고 있습니다. 이러한 발전은 기업들이 대규모 컴퓨팅 리소스 없이도 고성능 언어 모델을 실무에 도입할 수 있는 새로운 가능성을 열어주고 있습니다.이 세션에서는 효율적인 LLM 배포와 운영을 위한 실용적인 접근 방법을 소개합니다. 특히 Amazon의 Large Model Inference(LMI)와 SageMaker를 중심으로, 안정적이고 확장 가능한 LLM 호스팅 방법을 살펴봅니다. 또한, vLLM을 활용한 최적화된 배포 전략과 샘플 코드를 통해, 참가자들은 실무에 바로 적용할 수 있는 구체적인 가이드라인을 얻을 수 있습니다. 대규모 AI 모델을 효율적으로 운영하고자 하는 엔지니어, 개발자, 그리고 기술 리더들에게 필수적인 인사이트를 제공할 이번 세션을 놓치지 마세요.