Meta entwickelt ein Duo „KI-fokussierter“ Rechenzentren, ausgestattet mit 24.000 NVIDIA H100-GPUs


Meta hat zwei neue Rechenzentrumscluster vorgestellt, die sich durch die hochmodernen Beschleuniger von NVIDIA durch KI-fokussierte Entwicklungen auszeichnen sollen.

Die Fortschritte von Meta bei der Steigerung der KI-Rechenleistung gehen weiter, während das Unternehmen massive Entwicklungen mit NVIDIA H100-KI-GPUs plant

Mark Zuckerbergs Meta-KI-Projekt hat einen neuen Höhepunkt erreicht, da das Unternehmen die schnelle Entwicklung von AGI vorantreibt, dem nächsten großen Ding nach generativer KI in diesem Bereich. Um eine optimale Rechenleistung zu erreichen, hat Meta zwei neue Rechenzentrumscluster entwickelt, wie von berichtet Dynamik von Rechenzentren, mit dem alleinigen Ziel der KI-Forschung und LLM-Entwicklung in verbraucherspezifischen Anwendungen wie Sprach- und Bilderkennung. Das Unternehmen hat beschlossen, keine geringeren als die H100-KI-GPUs von NVIDIA zu integrieren, wobei beide Cluster 24.576 Einheiten enthalten.

Bildnachweis: Meta

Beide Cluster erweitern das Angebot der Cluster und verfügen über eine 400-Gbit/s-Verbindungsfähigkeit, wobei einer über Metas selbst entwickelte Fabric-Lösung auf Basis des Arista 7800 verfügt, während der andere Cluster über NVIDIAs Quantum2 InfiniBand-Fabric verfügt, um eine nahtlose Interkonnektivitätserfahrung zu gewährleisten . Darüber hinaus basieren die Cluster auf Metas eigener Open-GPU-KI-Plattform Grand Teton, die darauf ausgelegt ist, die Fähigkeiten moderner Beschleuniger durch eine erhöhte Host-zu-GPU-Bandbreite und Rechenkapazität zu nutzen.

Wenn wir in die Zukunft blicken, erkennen wir, dass das, was gestern oder heute funktioniert hat, für die Anforderungen von morgen möglicherweise nicht ausreicht. Aus diesem Grund bewerten und verbessern wir ständig jeden Aspekt unserer Infrastruktur, von der physischen und virtuellen Ebene bis zur Softwareebene und darüber hinaus. Unser Ziel ist es, Systeme zu schaffen, die flexibel und zuverlässig sind, um die sich schnell entwickelnden neuen Modelle und Forschungen zu unterstützen.

– Metas Blogbeitrag

Die beiden neuen Cluster von Meta sind Teil der Pläne des Unternehmens, eine führende Rolle bei der Bereitstellung einer größeren KI-Rechenkapazität als seine Konkurrenten einzunehmen. Die Integration der H100 von NVIDIA erfolgt im Rahmen des Plans, bis Ende dieses Jahres 350.000 dieser KI-GPUs einzusetzen, was einer Gesamtzahl von 600.000 H100 entspricht. Dies ist zweifellos eine „harte“ Verpflichtung des Unternehmens, im Zeitalter der KI voranzukommen, wo die Technologie in jüngster Zeit eine massive Akzeptanz erfahren hat. Und wie es aussieht, plant Meta, seine KI-Infrastruktur schnell auszubauen und sie mit Komponenten der nächsten Generation weiterzuentwickeln.

Nachrichtenquelle: Meta-Engineering

Teilen Sie diese Geschichte

Facebook

Twitter

source-99

Leave a Reply