Amazon-EC2-UltraCluster
HPC- und ML-Anwendungen in großem Maßstab ausführen
Warum Amazon-EC2-UltraCluster?
Amazon Elastic Compute Cloud (Amazon EC2)-UltraCluster können Sie bei der Skalierung auf Tausende von GPUs oder speziell entwickelten ML-KI-Chips wie AWS Trainium unterstützen, um bei Bedarf Zugriff auf einen Supercomputer zu erhalten. Sie demokratisieren den Zugang zu Supercomputing-Leistung für Entwickler von Machine Learning (ML), generativer KI und High Performance Computing (HPC) durch ein einfaches nutzungsabhängiges Nutzungsmodell ohne Einrichtungs- oder Wartungskosten. Zu den Amazon-EC2-Instances, die in EC2 UltraClusters bereitgestellt werden, gehören P6e-GB200-, P6-B200-, P5en-, P5e-, P5-, P4d-, Trn2- und Trn1-Instances.
EC2-UltraCluster bestehen aus Tausenden von beschleunigten EC2-Instances, die sich in einer bestimmten AWS Availability Zone befinden und über Elastic Fabric Adapter (EFA)-Netzwerke in einem nicht blockierenden Netzwerk im Petabit-Bereich miteinander verbunden sind. EC2 UltraCluster bieten auch Zugriff auf Amazon FSx for Lustre, einen vollständig verwalteten gemeinsamen Speicher, der auf dem beliebtesten leistungsstarken, parallelen Dateisystem basiert, um riesige Datensätze schnell und bedarfsgerecht mit Latenzen von unter einer Millisekunde zu verarbeiten. EC2-UltraCluster bieten Scale-Out-Funktionen für verteiltes ML-Training und eng gekoppelte HPC-Workloads.
Vorteile
Schnellere Lösungsfindung für verteiltes Training und HPC
On-Demand-Zugriff auf einen Exascale-Supercomputer
Flexibilität zur Optimierung von Leistung und Kosten
Funktionen
Leistungsstarkes Netzwerk
Leistungsstarker Speicher
Unterstützte Instances und UltraServer
P6e-GB200-UltraServer
Beschleunigt durch NVIDIA GB200 NVL72 bieten P6e-GB200-Instances in einer UltraServer-Konfiguration die höchste GPU-KI-Trainings- und Inferenzleistung in Amazon EC2.
P6-B200-Instances
Amazon-EC2-Instances vom Typ P6-B200, die von NVIDIA-Blackwell-GPUs beschleunigt werden, bieten leistungsstarke Instances für KI-Training, Inferenzen und High Performance Computing.
Trn2-Instances und -UltraServer
Trn2-Instances, die von AWS-Trainium2-KI-Chips angetrieben werden, bieten ein bis zu 30 bis 40 % besseres Preis-Leistungs-Verhältnis als vergleichbare GPU-basierte Instances.
P5en-, P5e- und P5-Instances
P5en- und P5e-Instances, die von NVIDIA-H200-Tensor-Core-GPUs angetrieben werden, bieten die höchste Leistung in Amazon EC2 für ML-Training und HPC-Anwendungen. P5-Instances werden von NVIDIA H100 Tensor Core-GPU abgetrieben.
P4d-Instances
P4d-Instances, die von NVIDIA-A100-Tensor-Core-GPUs angetrieben werden, bieten eine hohe Leistung für ML-Training und HPC-Anwendungen.
Trn1-Instances
Trn1-Instances, die von AWS-Trainium-KI-Chips angetrieben werden, sind speziell für Hochleistungs-Training für ML konzipiert. Sie bieten Einsparungen von bis zu 50 % der Kosten im Vergleich zu vergleichbaren EC2-Instances.
Haben Sie die gewünschten Informationen gefunden?
Ihr Beitrag hilft uns, die Qualität der Inhalte auf unseren Seiten zu verbessern.