Amazon Web Services 한국 블로그
AWS Summit New York 2025 주요 출시 소식 모음
오늘 뉴욕에서 열린 AWS Summit 기조 연설에서 AWS의 에이전틱 AI 부문 VP인 Swami Sivasubramanian은 프로덕션에 바로 사용 가능한 AI 에이전트를 고객에게 대규모로 제공할 수 있는 방법에 대해 발표했습니다.
본 행사의 주요 발표 내용은 아래에 요약되어 있습니다.
Amazon Bedrock AgentCore 소개: 대규모 AI 에이전트 안전한 배포와 운영 지원 (미리 보기)
Amazon Bedrock AgentCore를 사용하면 엔터프라이즈급 보안으로 AI 에이전트를 빠르게 배포하고 확장할 수 있습니다. 메모리 관리, ID 제어, 도구 통합을 통해 모든 오픈 소스 프레임워크 및 파운데이션 모델을 사용하면서 개발을 간소화합니다.
Amazon SageMaker AI를 통한 Amazon Nova 맞춤화 기능 출시
이제 AWS의 모든 모델 훈련 단계에서 SageMaker AI를 통해 Amazon Nova 파운데이션 모델을 광범위하게 사용자 지정할 수 있습니다. 이러한 기능은 바로 사용 가능한 SageMaker 레시피로 제공되며, 고객은 미세 조정, 레시피 조정 등의 사전 및 사후 훈련에 Nova 이해 모델을 적용하여 산업 전반의 비즈니스별 요구 사항을 더 잘 해결할 수 있습니다.
AWS Free Tier 업데이트: 신규 고객의 AWS 시작 및 탐색을 위한 최대 200 USD 크레딧 지원
AWS는 프리 티어 프로그램을 개선하여 신규 사용자에게 최대 200 USD의 크레딧을 제공합니다. 가입 시 100 USD가 제공되며 Amazon EC2, Amazon Bedrock, AWS Budgets 등의 서비스를 사용하여 작업을 완료하면 추가로 100 USD를 받을 수 있습니다.
Amazon Bedrock, TwelveLabs 비디오 이해 모델 정식출시
이제 Amazon Bedrock에서 TwelveLabs 비디오 이해 모델을 사용할 수 있습니다. 따라서 고객은 정확하고 안정적으로 비디오를 검색하고 장면을 분류하며 콘텐츠를 요약하고 인사이트를 추출할 수 있습니다.
Amazon S3 Metadata, 모든 S3 객체에 대한 메타데이터 지원 시작
Amazon S3 Metadata는 이제 실시간 인벤토리 및 저널 테이블을 통해 S3 버킷의 모든 객체에 대한 포괄적인 가시성을 제공합니다. 따라서 변경 후 1시간 이내에 자동 업데이트로 기존 객체와 신규 객체 모두에 대한 SQL 기반 분석을 할 수 있습니다.
Amazon S3 Vectors 소개: 대규모 벡터를 지원하는 최초 클라우드 스토리지 (미리 보기)
Amazon S3 Vectors는 대규모 벡터의 저장과 쿼리를 기본적으로 지원하는 새로운 클라우드 객체 저장소로, 기존 접근 방식 대비 최대 90%까지 비용을 절감하며 Amazon Bedrock Knowledge Bases, SageMaker, AI 애플리케이션용 OpenSearch와 원활하게 통합됩니다.
Amazon SageMaker, 데이터를 인사이트화하는 경로 간소화
Amazon SageMaker는 대시보드 생성, 거버넌스, 공유를 위한 Amazon QuickSight 통합, 문서 및 미디어 파일 목록화를 위한 Amazon S3 비정형 데이터 통합, Lakehouse의 자동 데이터 온보딩이라는 세 가지 신규 기능을 도입했습니다. 이를 통해 정형 및 비정형 데이터 관리, 시각화, 거버넌스를 단일 환경으로 통합하여 데이터 사일로를 제거합니다.
Amazon EventBridge, 로깅을 통한 이벤트 기반 애플리케이션 모니터링 및 디버깅
Amazon EventBridge는 이제 로깅 기능을 향상하여 포괄적인 이벤트 수명 주기 추적을 제공합니다. 따라서 사용자는 이벤트 게시, 규칙 부합, 구독자 전송, 장애 발생 시점을 보여 주는 상세 로그를 통해 이벤트 기반 애플리케이션을 모니터링하고 문제를 해결할 수 있습니다.
Amazon EKS, 클러스터당 10만 개 노드 지원을 통한 초대형 AI 및 ML 워크로드 지원
Amazon EKS는 이제 클러스터당 10만 개의 노드를 확장하여 최대 160만 AWS Trainium 액셀러레이터 또는 80만 NVIDIA GPU를 사용하는 대규모 AI 및 ML 워크로드를 지원합니다. 따라서 조직은 대규모 AI 모델을 효율적으로 훈련하고 실행하면서 Kubernetes 호환성과 기존 도구 통합을 유지할 수 있습니다.