AWS 기술 블로그

Seekable OCI 및 AWS Fargate를 사용한 컨테이너 이미지 지연 로딩으로 더 빠르게 컨테이너 시작하기

본 게시물은 AWS Container Blog에 게시된 “Under the hood: Lazy Loading Container Images with Seekable OCI and AWS Fargate” by Olly Pomeroy and Vaibhav Khunger을 한국어 번역 및 편집하였습니다. 서버리스 컴퓨팅 엔진인 AWS Fargate는 이제 Seekable OCI(SOCI)를 사용하여 인덱싱된 컨테이너 이미지의 레이지 로딩을 지원합니다. SOCI를 통해 컨테이너 이미지를 지연 로딩하면 AWS Fargate에서 Amazon Elastic Container […]

Amazon SageMaker JumpStart를 이용하여 Falcon Foundation Model기반의 Chatbot 만들기

2023년 6월부터 AWS 서울 리전에서 EC2 G5인스턴스를 사용할 수 있게 되었습니다. 여기서는 Falcon Foundation Model을 Amazon SageMaker JumpStart를 이용해 AWS 서울 리전의 EC2 G5에 설치하고, 웹 브라우저 기반의 Chatbot을 생성하는 방법에 대해 설명합니다. Falcon FM은 HuggingFace의 Open LLM Leaderboard에서 상위권(2023년 7월 기준)에 위치할 만큼 우수한 성능을 가지고 있으면서도, 아파치 2.0 라이선스 정책에 따라 상용을 포함하여 누구나 자유롭게 사용할 […]

효율적인 AWS CloudTrail 검색을 위한 데이터 파이프라인 구성

AWS CloudTrail은 사용자, 역할 또는 AWS 서비스가 수행하는 작업을 이벤트로 기록하는 서비스입니다. 이벤트에는 AWS Management Console, AWS Command Line Interface 및 AWS SDK, API에서 수행되는 작업이 포함됩니다. 이벤트는 Amazon Simple Storage Service(S3)에 JSON 형식의 압축 파일로 기록됩니다. 이 파일을 직접 다운받아 조회하거나 전체 포맷을 변경하지 않고 검색하는것은 매우 어려운 일 입니다. 서버리스 데이터 통합 서비스인 […]

AWS 로드 밸런스 컨트롤러의 Ingress 공유 및 대상 그룹 바인딩 자세히 살펴보기

본 게시물은 AWS Container Blog에 게시된 “A deeper look at Ingress Sharing and Target Group Binding in AWS Load Balancer Controller” by Elamaran Shanmugam, Ratnopam Chakrabarti, Re Alvarez-Parmar, and Praseeda Sathaye을 한국어 번역 및 편집하였습니다. 소개 AWS 로드 밸런서 컨트롤러는 애플리케이션 로드 밸런서(ALB) 및 네트워크 로드 밸런서(NLB)를 쿠버네티스 워크로드와 통합하는 쿠버네티스 컨트롤러입니다. 쿠버네티스 API(애플리케이션 프로그래밍 […]

Terraform, GitHub Actions, AWS Proton을 사용하여 IaC 및 CI/CD 파이프라인 확장하기

이 글은 AWS Machine Learning Blog에 게시된 Scaling IaC and CI/CD pipelines with Terraform, GitHub Actions, and AWS Proton by John Ritsema을 한국어로 번역 및 편집하였습니다. 소개 최신 애플리케이션은 AWS Lambda, AWS App Runner, 그리고 AWS Fargate와 같은 서버리스 서비스를 포함해 AWS의 다양한 컴퓨팅 플랫폼에서 실행됩니다. 오늘날의 조직들은 종종 이러한 고유의 런타임 특성을 제공하는 AWS […]

QLoRA 기법으로 Falcon-40B 및 기타 대규모 모델(LLM)을 Amazon SageMaker Studio 노트북의 대화형 환경에서 파인튜닝하기

이 글은 AWS Machine Learning Blog에 게시된 Interactively fine-tune Falcon-40B and other LLMs on Amazon SageMaker Studio notebooks using QLoRA by Sean Morgan, Philipp Schmid, and Lauren Mullennex를 한국어로 번역 및 편집하였습니다. 대규모 언어 모델(LLM; Large Language Models)을 파인튜닝(Fine-tuning) 하면 오픈 소스 파운데이션 모델(Foundation model)을 개선하여 도메인별 작업에서 더욱 향상된 성능을 끌어낼 수 있습니다. 이 […]

Amazon ECS 워크로드를 위한 AWS Fault Injection Simulator의 새로운 기능 발표

본 게시물은 AWS Container Blog에 게시된 “Announcing AWS Fault Injection Simulator new features for Amazon ECS workloads” by Jooyoung Kim, Re Alvarez-Pamar을 한국어 번역 및 편집하였습니다. 소개 Amazon Elastic Container Service (Amazon ECS) 및 Amazon Elastic Kubernetes Service (Amazon EKS)에서 실행되는 워크로드에 다양한 오류를 주입할 수 있는 AWS Fault Injection Simulator (FIS)의 새로운 기능을 발표하게 되어 기쁩니다. […]

AWS Site-to-Site VPN 성능 최적화를 위한 적절한 옵션 선택하기

이 글은 AWS Networking & Content Delivery Blog에 게시된 AWS Site-to-Site VPN, choosing the right options to optimize performance by Scott Morrison and Shawji Varkey을 한국어 번역 및 편집하였습니다. AWS Site-to-Site VPN은 온프레미스 사용자와 워크로드를 AWS에 연결하는 방법으로 성능, 확장성, 보안 및 고가용성 기능을 제공하는 완전 관리형 서비스입니다. Site-to-Site VPN을 사용하는 경우, 연결 당 두 […]

AWS Data Migration Service(DMS)를 활용하여 Amazon Aurora PostgreSQL 블루/그린 배포 환경 생성하기

데이터베이스 운영 안정성 및 다운타임은 애플리케이션을 운영하는 관점에서 매우 중요합니다. 데이터베이스 운영 시 발생하는 파라미터 변경 또는 데이터베이스 버전 업그레이드하는 경우 필연적으로 다운타임이 발생하며 이에 소요되는 시간도 예측하기 어렵습니다. 데이터베이스가 단일 소스의 원천으로 구성되어 있는 아키텍쳐에서 데이터베이스의 운영 관리 측면에서 발생하는 이런 다운타임은 최종 사용자가 사용하는 애플리케이션의 가용성에 크게 영향을 미칩니다. 이런 상황에서 블루/그린 환경 […]

허깅페이스와 LoRA를 사용하여 단일 Amazon SageMaker GPU에서 대규모 언어 모델(LLM) 훈련하기

이 글은 AWS Machine Learning Blog에 게시된 Train a Large Language Model on a single Amazon SageMaker GPU with Hugging Face and LoRA by Philipp Schmid, Doug Kelly, and Robert Fisher을 한국어로 번역 및 편집하였습니다. 원문은 허깅페이스의 필립 슈미드(Philipp Schmid)와 공동 작성되었습니다. 대규모 언어 모델(LLM; Large Language Models) 분야의 발전과 LLM이 가치 있는 인사이트를 제공하는 […]