Saltar al contenido principal

Chips de IA de AWS

Chips de IA diseñados específicamente para obtener la mejor relación entre precio y rendimiento

Entrene y sirva modelos de IA con Trainium e Inferentia de forma más rápida, económica y totalmente integrada con AWS.

Por qué elegir Trainium e Inferentia

Menores costos, mayor rendimiento e integración total con los servicios de AWS. Compatible con PyTorch, Hugging Face y vLLM.

¿Preparado para crear y escalar con los chips de IA diseñados de manera específica por AWS?

Siga esta ruta de aprendizaje para avanzar desde la exploración, a la configuración, el entrenamiento, la implementación y la optimización. Cada paso incluye sesiones en las que aprenderá de manera práctica.

Explorar

Escale desde una sola instancia a clústeres con SageMaker HyperPod o EKS.

Introducción al ecosistema, la arquitectura del hardware y ejemplos del mundo real (Anthropic, Project Rainer). Incluye una demostración en vivo de Trainium.

Configuración

Comience con EC2, SageMaker o contenedores. Los DLAMI prediseñados y el SDK de Neuron hacen que la configuración sea simple y rápida. 

Descubra la pila del SDK de Neuron, inicie DLAMI, configure EC2 y comience a trabajar en Jupyter.

Aprender

Entrene, implemente y optimice sus modelos.

¿Ha encontrado lo que buscaba hoy?

Ayúdenos a mejorar la calidad del contenido de nuestras páginas compartiendo sus comentarios