- Datenverarbeitung›
- Amazon EC2›
- AWS und AMD
AWS und AMD
Leistungsstarke Prozessoren für die richtige Größe Ihrer Workloads
Warum AWS und AMD?
AWS und AMD haben zusammengearbeitet, um Kunden mehr Auswahl und Mehrwert beim Cloud Computing zu bieten, angefangen mit der ersten Generation der AMD EPYC-Prozessoren im Jahr 2018, über die zweite Generation der AMD-EPYC-Prozessoren im Jahr 2020, bis hin zur fünften Generation der AMD-EPYC-Prozessoren.
M8a-Instances eignen sich ideal für Anwendungen, die von hoher Leistung und hohem Durchsatz profitieren, wie Gaming, Finanzanwendungen, ML-Inferenz, Videokodierung, Anwendungsserver, Simulationsmodellierung, mittelgroße Datenspeicher, Anwendungsentwicklungsumgebungen und Caching-Flotten.
R8a-Instances eignen sich ideal für leistungsstarke, speicherintensive Workloads wie SQL- und NoSQL-Datenbanken, verteilte Web-Scale-In-Memory-Caches, In-Memory-Datenbanken, Echtzeit-Big-Data-Analysen, groß angelegte Unternehmensanwendungen, Big-Data-Verarbeitungs-Engines, leistungsstarke Datenbanken, speicherintensive Analysen und EDA-Anwendungen (Electronic Design Automation).
C8a-Instances eignen sich ideal für rechenintensive Hochleistungs-Workloads wie Batch-Verarbeitung, verteilte Analysen, High Performance Computing (HPC), Anzeigenbereitstellung, hoch skalierbares Multiplayer-Gaming und Videokodierung.
Workloads
Diese Workloads profitieren von einem ausgewogenen Verhältnis von Rechen-, Arbeitsspeicher-, Netzwerk- und Speicherressourcen. Die Anwendungsfälle umfassen geschäftskritische Anwendungen, Web- und Anwendungsserver, Back-End-Server für Unternehmensanwendungen, Gameserver, Caching-Flotten und Anwendungs-Entwicklungsumgebungen.
Rechenintensive Anwendungen profitieren von Hochleistungsprozessoren und sind an die Menge an Rechenleistung gebunden, die bereitgestellt werden kann. Beispiele hierfür sind Hochleistungs-Webserver, High Performance Computing, Stapelverarbeitung, die Bereitstellung von Werbeinhalten, stark skalierbare Multiplayer-Spiele, Videocodierung, die Erstellung wissenschaftlicher Modelle, verteilte Analytik sowie die Ableitung von Machine- bzw. Deep-Learning-Inferenzen.
Hohe Performance für Workloads, deren große Datenmengen im Arbeitsspeicher verarbeitet werden. Beispiele hierfür sind Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit und andere Unternehmensanwendungen.
Kunden die Fern-Workstations in der Cloud für ihre Grafikanwendungen verwenden wollen, können G4ad-Instances nutzen, um die Flexibilität bereitgestellter Ressourcen auf einer Einzelprojektbasis zu erhalten, anstatt von On-Premises-Kapazitäten limitiert zu sein.
Anwendungen, die eine Workload mit Arbeitsspitzen mit sich bringen, haben eine variable CPU-Auslastung. Auch die gelegentlich auftretenden Nachfragespitzen müssen nahtlos ausgeführt werden, um vorübergehenden Datenverkehrsspitzen zu begegnen, und dann wieder herunterskaliert werden, um mit dem typischen Datenverkehrsniveau zu arbeiten. Beispiele dafür umfassen Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen.
Themen der Seite
AMD-gestützte EC2-Instances kennenlernen
Alles öffnenAmazon-EC2-C8a-Instances werden von AMD EPYC Prozessoren der 5. Generation (früher unter dem Codenamen Turin) mit einer maximalen Frequenz von 4,5 GHz angetrieben und bieten eine bis zu 30 % höhere Leistung und ein bis zu 19 % besseres Preis-Leistungs-Verhältnis im Vergleich zu C7a-Instances.
C8a-Instances bieten 33 % mehr Speicherbandbreite als C7a-Instances. Sie sind bis zu 57 % schneller für GroovyJVM und ermöglichen im Vergleich zu Amazon-EC2-C7a-Instances bessere Reaktionszeiten für Java-basierte Anwendungen. C8a-Instances bieten 12 Größen, darunter 2 Bare-Metal-Instance-Größen.
Amazon Elastic Compute Cloud (Amazon EC2) X8AEDZ-Instances sind speicheroptimierte Instances der nächsten Generation, die auf AMD-EPYC-Prozessoren der 5. Generation basieren. Diese Instances bieten die höchste CPU-Frequenz, 5 GHz in der Cloud.
X8aedz-Instances sind in 8 Größen von 2 bis 96 vCPUs mit 64 bis 3 072 GiB Arbeitsspeicher verfügbar, darunter zwei Bare-Metal-Varianten. X8AEDZ-Instances eignen sich ideal für Electronic Design Automation (EDA)-Workloads wie physisches Layout und physische Verifizierung sowie für relationale Datenbanken, die von einer hohen Single-Thread-Prozessorleistung und einem großen Speicherbedarf profitieren.
Amazon-EC2-R8a-Instances werden von AMD EPYC Prozessoren der 5. Generation (früher unter dem Codenamen Turin) mit einer maximalen Frequenz von 4,5 GHz angetrieben und bieten eine bis zu 30 % höhere Leistung und ein bis zu 19 % besseres Preis-Leistungs-Verhältnis im Vergleich zu R7a-Instances.
R8a-Instances bieten 45 % mehr Speicherbandbreite als M7a-Instances. Im Vergleich zu Amazon EC2 R7a-Instances bieten R8a-Instances eine bis zu 60 % schnellere Leistung für GroovyJVM-Benchmark gegenüber R7a, was einen höheren Anfragedurchsatz und bessere Reaktionszeiten für geschäftskritische Anwendungen ermöglicht. R8a-Instances bieten 12 Größen, darunter 2 Bare-Metal-Instance-Größen. Amazon-EC2-R8a-Instances sind SAP-zertifiziert und bieten 38 % mehr SAPS als Amazon-EC2-R7a-Instances.
M8a-Instances werden von AMD EPYC Prozessoren der 5. Generation (früher unter dem Codenamen Turin) mit einer maximalen Frequenz von 4,5 GHz angetrieben und bieten eine bis zu 30 % höhere Leistung und ein bis zu 19 % besseres Preis-Leistungs-Verhältnis im Vergleich zu M7a-Instances.
M8a-Instances bieten 45 % mehr Speicherbandbreite im Vergleich zu M7a-Instances, so dass diese Instances selbst für latenzempfindliche Workloads ideal sind. M8a-Instances bieten noch höhere Leistungssteigerungen für bestimmte Workloads; M8a-Instances sind bei GroovyJVM-Workloads bis zu 60 % schneller und bei Cassandra-Datenbanken bis zu 39 % schneller als bei M7A-Instances. Das bedeutet eine schnellere Verarbeitung Ihrer Hochleistungsdatenbanken, Transaktionssysteme und Medienkodierungsaufgaben. Die SAP-zertifizierten M8a-Instances bieten 12 Größen, darunter 2 Bare-Metal-Instance-Größen. Mit dieser großen Auswahl an Instances können Kunden ihre Workload-Anforderungen genau erfüllen.
Amazon-EC2-M7a-Instances, die von AMD-EPYC-Prozessoren der 4. Generation angetrieben werden, bieten eine bis zu 50 % höhere Leistung im Vergleich zu M6a-Instances. M7a-Instances verwenden modernsten DDR5-Speicher, um einen Hochgeschwindigkeitszugriff auf den Speicher zu ermöglichen und bieten im Vergleich zu M6a-Instances eine 2,25-mal höhere Speicherbandbreite. Diese Instances sind SAP-zertifiziert und eignen sich ideal für Anwendungen, die von hoher Leistung und hohem Durchsatz profitieren, wie Finanzanwendungen, Anwendungsserver, Simulationsmodellierung, Spiele, mittelgroße Datenspeicher, Anwendungsentwicklungsumgebungen und Caching-Flotten.
Amazon-EC2-C7a-Instances, die von AMD EPYC-Prozessoren der 4. Generation angetrieben werden, bieten im Vergleich zu C6a-Instances eine um bis zu 50 % höhere Leistung. C7a-Instances verwenden führenden DDR5-Speicher und bieten 2,25-mal mehr Speicherbandbreite als C6a-Instances. Diese Instances eignen sich ideal für rechenintensive Hochleistungs-Workloads wie Batch-Verarbeitung, verteilte Analysen, High Performance Computing (HPC), Anzeigenbereitstellung, hoch skalierbares Multiplayer-Gaming und Videokodierung.
Amazon-EC2-R7a-Instances, die von AMD EPYC-Prozessoren der 4. Generation angetrieben werden, bieten im Vergleich zu R6a-Instances eine um bis zu 50 % höhere Leistung. R7a-Instances verwenden führenden DDR5-Speicher und bieten 2,25-mal mehr Speicherbandbreite als R6a-Instances. Diese Instances sind SAP-zertifiziert und sind ideal für leistungsstarke, speicherintensive Workloads wie SQL- und NoSQL-Datenbanken, verteilte In-Memory-Caches auf Webebene, In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit und Electronic Design Automation (EDA)-Anwendungen.
Amazon-EC2-Hpc7a-Instances verfügen über AMD-EPYC-Prozessoren der 4. Generation und sind für eng gekoppelte, rechenintensive High Performance Computing (HPC)-Workloads wie Computational Fluid Dynamics (CFD), Wettervorhersagen und multiphysikalische Simulationen konzipiert.
Amazon-EC2-M6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation (Codename Milan) mit einer All-Core-Turbo-Frequenz von 3,6 GHz angetrieben, bieten eine bis zu 35 % bessere Preisleistung im Vergleich zu M5a-Instances und 10 % niedrigere Kosten als vergleichbare x86-basierte EC2-Instances. M6a-Instances bieten zwei Instance-Größen mehr als M5a (32xlarge und 48xlarge) sowie bis zu 192 vCPUs und 768 GiB Arbeitsspeicher in der 48xlarge-Größe, also das Doppelte der größten M5a-Instance. Außerdem bieten M6a-Instances bis zu 50 Gbit/s Netzwerkgeschwindigkeit und 40 Gbit/s Bandbreite für den Amazon Elastic Block Store, mehr als das Doppelte von M5a-Instances.
Amazon-EC2-C6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation mit einer All-Core-Turbo-Frequenz von 3,6 GHz angetrieben, bieten eine bis zu 15 % bessere Preisleistung im Vergleich zu C5a-Instances und 10 % niedrigere Kosten als vergleichbare x86-basierte EC2-Instances. C6a-Instances bieten auch neue größere Größen mit bis zu 192 vCPUs und 384 GiB Arbeitsspeicher, sodass Sie Workloads auf weniger Instances konsolidieren und Lizenzkosten pro Kern sparen können. Diese Instances verfügen über mehr als die doppelte Netzwerkbandbreite von C5a-Instances und sind für rechenintensive Workloads wie Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videokodierung konzipiert.
Amazon-EC2-C6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation mit einer All-Core-Turbo-Frequenz von 3,6 GHz angetrieben, bieten eine bis zu 35 % bessere Preisleistung im Vergleich zu R5a-Instances und 10 % niedrigere Kosten als vergleichbare x86-basierte EC2-Instances. R6a-Instances bieten auch neue größere Größen mit bis zu 192 vCPUs und 1 536 GiB Arbeitsspeicher. Diese Instances sind SAP-zertifiziert und eignen sich ideal für speicherintensive Workloads wie SQL- und NoSQL-Datenbanken, verteilte webbasierte In-Memory-Caches wie Memcached und Redis, In-Memory-Datenbanken und Big-Data-Analytik in Echtzeit wie Apache Hadoop- und Apache Spark-Cluster sowie andere Unternehmensanwendungen.
Amazon-EC2-G4ad-Instances mit GPUs von AMD Radeon Pro V520 bieten das beste Preis-Leistungs-Verhältnis für grafikintensive Anwendungen in der Cloud. Diese Instances bieten ein um bis zu 45 Prozent besseres Preis-Leistungs-Verhältnis bei Grafikanwendungen als G4dn-Instances (welche bereits die kostengünstigsten Instances in der Cloud waren). Sie bieten bis zu 4 GPUs von AMD Radeon Pro V520, 64 vCPUs, 25 Gbit/s Netzwerk und 2,4 TB lokalen NVMe-basierten SSD-Speicher.
Die Amazon-EC2-T3a-Instances verfügen über Prozessoren der AMD EPYC 7000 Serie mit einer Turbo-Taktfrequenz von 2,5 GHz. Die AMD-basierten Instances bieten zusätzliche Möglichkeiten für Kunden, welche die Rechenressourcen nicht vollständig nutzen und von einer Kostenersparnis von 10 Prozent profitieren können.
Kunden
Erfolgsgeschichten von Kunden erkunden.
Capital One
„Die 7. Generation von EC2-Instances mit AMD-Prozessoren bot eine schrittweise Leistungssteigerung bei gleichbleibendem Preis. In unserem Benchmarking wurde eine Leistungssteigerung von 43 % nachgewiesen, und wir sehen in den kommenden M8a-Instances eine Fortsetzung dieses wichtigen Trends für unsere Cloud-Infrastruktur.“
Brent Segner, Senior Distinguished Engineer | Senior Director, Capital One
Acciona
ACCIONA bietet nachhaltige Lösungen für die dringendsten Herausforderungen, vor denen der Planet steht, wie globale Erwärmung, Energiebedarf und Wasserknappheit. Wir verwenden Amazon-EC2-M7a-Instances für rechenintensive Simulationen von Stromnetzen. Mit diesen Instances können wir bis zu 64 verschiedene Variablen in einer einzigen Simulation simulieren, im Vergleich zu 16–30 Variablen vorher. Beim Vergleich von M7a-Instances mit anderen Instances stellten wir außerdem eine Reduzierung der Simulationszeit von 60–80 Minuten auf 18–22 Minuten fest, was im Durchschnitt einer Verbesserung der Multithreading-Leistung um 59 % entspricht. Und mit M7a-Instances konnten wir sehen, wie 64 Threads mit der gleichen Geschwindigkeit vorankamen, was wir noch nie zuvor erlebt hatten. Wir freuen uns, dass M7a-Instances dazu beitragen werden, unsere Innovation zu beschleunigen.
Dropbox
Dropbox ist ein führendes Unternehmen im Bereich Online-Speicher für Privatkunden und Unternehmen und befindet sich in der einzigartigen Position, AMD-Technologie vor Ort und in der Cloud zu nutzen. Wir sind in der Lage, unser Versprechen, Kunden dabei zu unterstützen, intelligenter zu arbeiten, auch dank der von uns etablierten Technologiepartnerschaften einhalten. Die EPYC-Prozessoren von AMD bieten die Leistung, die wir für unsere lokalen Workloads benötigen, während Amazon-EC2-Instances mit AMD-Prozessoren uns erhebliche Einsparungen bieten.