Bis zu viermal schneller als NVIDIA H100 im HPC, doppelt so effizient


Neben dem MI300X für KI ist auch AMD dabei ankündigen dass seine Instinct MI300A APU in die Massenproduktion gegangen ist und voraussichtlich bei der Markteinführung im nächsten Jahr die weltweit schnellste HPC-Leistung bieten wird.

AMD bringt HPC mit Instinct MI300A APUs auf die nächste Stufe, 4x schneller und 2x effizienter als NVIDIA H100

Wir haben jahrelang darauf gewartet, dass AMD endlich das Versprechen einer APU der Exascale-Klasse einlöst, und der Tag rückt näher, da wir der Einführung des Instinct MI300A immer näher kommen. AMD bestätigte heute, dass die MI300A APU in diesem Quartal in die Massenproduktion ging und auf dem Weg ist, die schnellste HPC-Lösung der Welt zu werden, wenn sie 2024 verfügbar wird.

Die AMD Instinct MI300A APU ist eine Kombination aus verschiedenen Architekturen und Verbindungstechnologien, wobei Zen 4, CDNA 3 und die Infinity-Architektur der 4. Generation im Vordergrund stehen. Zu den Highlights der MI300A-APUs gehören:

  • Bis zu 61 TFLOPS FP64-Rechenleistung
  • Bis zu 122 TFLOPS FP32-Rechenleistung
  • Bis zu 128 GB HBM3-Speicher
  • Bis zu 5,3 TB/s Speicherbandbreite
  • 146 Milliarden Transistoren

Die Verpackung des MI300A ist der des MI300X sehr ähnlich, außer dass hier TCO-optimierte Speicherkapazitäten und Zen 4-Kerne zum Einsatz kommen. Kommen wir also zu den Details dieser Exascale-Leistung für HPC- und KI-Rechenzentren der nächsten Generation.

AMD Instinct MI300A Beschleuniger.

Bei einem der aktiven Chips wurden zwei CDNA 3 GCDs herausgeschnitten und durch drei Zen 4 CCDs ersetzt, die ihren separaten Cache- und Kern-IP-Pool bieten. Sie erhalten 8 Kerne und 16 Threads pro CCD, also insgesamt 24 Kerne und 48 Threads auf dem aktiven Chip. Es gibt außerdem 24 MB L2-Cache (1 MB pro Kern) und einen separaten Cache-Pool (32 MB pro CCD). Es ist zu beachten, dass die CDNA 3 GCDs auch über einen separaten L2-Cache verfügen.

AMD Instinct MI300A Accelerator mit CDNA 3 und Zen 4 stirbt.

Auf der GPU-Seite hat AMD insgesamt 228 Compute Units basierend auf der CDNA 3-Architektur aktiviert, was 14.592 Kernen entspricht. Das sind 38 Recheneinheiten pro GPU-Chiplet. Wir fassen einige der hervorgehobenen Funktionen der AMD Instinct MI300-Beschleuniger zusammen:

  • Erstes integriertes CPU+GPU-Paket
  • Ziel ist der Markt für Exascale-Supercomputer
  • AMD MI300A (Integrierte CPU + GPU)
  • 146 Milliarden Transistoren
  • Bis zu 24 Zen 4-Kerne
  • CDNA 3 GPU-Architektur
  • 228 Recheneinheiten (14.592 Kerne)
  • Bis zu 128 GB HBM3-Speicher
  • Bis zu 8 Chiplets + 8 Speicherstapel (5-nm- + 6-nm-Prozess)
amd-instinct-mi300a-apu-for-hpc_4
amd-instinct-mi300a-apu-for-hpc_5

Was die Leistungszahlen betrifft, so hat AMD den MI300A erneut mit dem H100 verglichen, dieses Mal jedoch bei HPC-spezifischen Workloads. In OpenFOAM bietet die Instinct MI300A APU eine bis zu vierfache Leistungssteigerung, die hauptsächlich auf das einheitliche Speicherlayout, die GPU-Leistung sowie die Gesamtspeicherkapazität und -bandbreite zurückzuführen ist. Das System bietet im Vergleich zu den Grace Hopper Superchips von NVIDIA außerdem eine doppelt so hohe Leistung pro Watt.

AMD bestätigte außerdem, dass die Instinct MI300A APUs jetzt ausgeliefert werden und auch als Antrieb für den El-Capitan-Supercomputer der nächsten Generation verwendet werden, der voraussichtlich bis zu 2 Exaflops Rechenleistung liefern wird. Es sollte erwähnt werden, dass AMD das einzige Unternehmen ist, das mit dem Frontier-Supercomputer die 1-Exaflop-Grenze durchbrochen hat, und außerdem das effizienteste System auf dem Planeten ist.

Teilen Sie diese Geschichte

Facebook

Twitter

source-99

Leave a Reply