Die NVIDIA GH200-GPU ist mit dem weltweit schnellsten HBM3e-Speicher ausgestattet und liefert eine Bandbreite von 5 TB/s


NVIDIA hat gerade angekündigt seine verbesserte GH200-GPU, die jetzt mit HBM3e, der schnellsten Speicherlösung der Welt, ausgestattet ist.

NVIDIA stattet die weltweit schnellste KI-GPU mit dem weltweit schnellsten Speicher aus: Lernen Sie die GH200 HBM3e Edition kennen!

Laut NVIDIA ist die Hopper GH200 GPU nun der weltweit erste HBM3e-Chip, der nicht nur eine höhere Speicherbandbreite, sondern auch eine höhere Speicherkapazität bietet. Ein duales Grace Hopper-System bietet jetzt 3,5-mal mehr Kapazität und 3-mal höhere Bandbreite als das bestehende Angebot. Die Systeme können jetzt bis zu 282 GB HBM3e-Speicher bieten.

Der HBM3e-Speicher selbst bietet eine um 50 % höhere Geschwindigkeit gegenüber dem bestehenden HBM3-Standard und liefert eine Bandbreite von bis zu 10 TB/s pro System und 5 TB/s Bandbreite pro Chip. HBM3e-Speicher wird nun zur Stromversorgung einer Reihe von GH200-basierten Systemen (400 und mehr) verwendet, die eine Vielzahl von Kombinationen der neuesten CPU-, GPU- und DPU-Architekturen von NVIDIA umfassen, darunter Grace, Hopper, Ada Lovelace und Bluefield, um die Anforderungen zu erfüllen steigende Nachfrage im KI-Segment.

NVIDIA hat nicht genau bekannt gegeben, von wem das Unternehmen die brandneuen HBM3e-Speicherchips für die Verwendung auf seiner GH200 AI-GPU beziehen wird, aber SK Hynix soll kürzlich die Anfrage von NVIDIA erhalten haben, sein HBM3e-DRAM der nächsten Generation zu testen. Mittlerweile verfügt Samsung auch über schnellere HBM3-Chips, die eine Bandbreite von bis zu 5 TB/s pro Stack bieten können, obwohl es den Anschein hat, dass SK Hynix die Wahl für GH200-GPUs sein könnte.

NVIDIA kündigte heute die NVIDIA GH200 Grace Hopper-Plattform der nächsten Generation an – basierend auf einem neuen Grace Hopper Superchip mit dem weltweit ersten HBM3e-Prozessor – konzipiert für das Zeitalter des beschleunigten Computings und der generativen KI.

Die neue Plattform wurde für die Bewältigung der komplexesten generativen KI-Arbeitslasten der Welt entwickelt und umfasst große Sprachmodelle, Empfehlungssysteme und Vektordatenbanken. Sie wird in einer Vielzahl von Konfigurationen verfügbar sein.

Die Dual-Konfiguration – die bis zu 3,5-mal mehr Speicherkapazität und 3-mal mehr Bandbreite als das Angebot der aktuellen Generation bietet – umfasst einen einzelnen Server mit 144 Arm Neoverse-Kernen, acht Petaflops KI-Leistung und 282 GB der neuesten HBM3e-Speichertechnologie.

Der HBM3e-Speicher, der 50 % schneller als der aktuelle HBM3 ist, liefert eine kombinierte Bandbreite von insgesamt 10 TB/Sek., sodass die neue Plattform 3,5-mal größere Modelle als die Vorgängerversion ausführen kann und gleichzeitig die Leistung durch eine dreimal schnellere Speicherbandbreite verbessert.

über NVIDIA

NVIDIA gab außerdem an, dass die Verfügbarkeit der ersten Systeme, die die Hopper GH200-GPUs mit der neuen HBM3e-Speichertechnologie verwenden, im zweiten Quartal 2024 verfügbar sein wird, was etwas später ist als bei den AMD Instinct MI300X-GPUs, die über eine ähnliche HBM3-Bandbreite von 5 TB/s+ verfügen werden bis zu 192 GB VRAM-Kapazitäten.

Teilen Sie diese Geschichte

Facebook

Twitter

source-99

Leave a Reply