Die GPUs von NVIDIA haben die KI-Revolution vorangetrieben. Seine neuen Blackwell-Chips sind bis zu 30-mal schneller


In weniger als zwei Jahren machten die H100-Chips von NVIDIA, die von fast jedem KI-Unternehmen auf der Welt zum Trainieren großer Sprachmodelle für Dienste wie ChatGPT verwendet werden, das Unternehmen zu einem der wertvollsten Unternehmen der Welt. Am Montag kündigte NVIDIA eine Plattform der nächsten Generation namens Blackwell an, deren Chips zwischen sieben und 30 Mal schneller als der H100 sind und 25 Mal weniger Strom verbrauchen.

„Blackwell-GPUs sind der Motor für diese neue industrielle Revolution“, sagte Jensen Huang, CEO von NVIDIA, auf der jährlichen GTC-Veranstaltung des Unternehmens in San Jose, an der Tausende von Entwicklern teilnahmen einige verglichen zu einem Taylor Swift-Konzert. „Generative KI ist die prägende Technologie unserer Zeit. Durch die Zusammenarbeit mit den dynamischsten Unternehmen der Welt werden wir das Versprechen von KI für jede Branche verwirklichen“, fügte Huang hinzu Pressemitteilung.

Die Blackwell-Chips von NVIDIA sind nach David Harold Blackwell benannt, einem Mathematiker, der sich auf Spieltheorie und Statistik spezialisiert hat. NVIDIA behauptet, Blackwell sei der leistungsstärkste Chip der Welt. Es bietet KI-Unternehmen eine deutliche Leistungssteigerung mit Geschwindigkeiten von 20 Petaflops im Vergleich zu nur 4 Petaflops, die der H100 bereitstellte. Ein Großteil dieser Geschwindigkeit wird durch die 208 Milliarden Transistoren in Blackwell-Chips ermöglicht, verglichen mit 80 Milliarden im H100. Um dies zu erreichen, hat NVIDIA zwei große Chip-Chips verbunden, die mit Geschwindigkeiten von bis zu 10 Terabyte pro Sekunde miteinander kommunizieren können.

Ein Zeichen dafür, wie abhängig unsere moderne KI-Revolution von den Chips von NVIDIA ist, heißt es in der Pressemitteilung des Unternehmens beinhaltet Erfahrungsberichte von acht CEOs, die gemeinsam Unternehmen im Wert von Billionen Dollar leiten. Dazu gehören OpenAI-CEO Sam Altman, Microsoft-CEO Satya Nadella, Alphabet-CEO Sundar Pichai, Meta-CEO Mark Zuckerberg, Google DeepMind-CEO Demis Hassabis, Oracle-CEO Larry Ellison, Dell-CEO Michael Dell, Amazon-CEO Andy Jassy und Tesla-CEO Elon Musk.

„Derzeit gibt es nichts Besseres als NVIDIA-Hardware für KI“, sagt Musk in der Erklärung. „Blackwell bietet enorme Leistungssprünge und wird unsere Fähigkeit, Spitzenmodelle bereitzustellen, beschleunigen. Wir freuen uns, weiterhin mit NVIDIA zusammenzuarbeiten, um die KI-Berechnung zu verbessern“, sagt Altman.

NVIDIA gab nicht bekannt, wie viel Blackwell-Chips kosten würden. Die H100-Chips kosten derzeit zwischen 25.000 und 40.000 US-Dollar pro Chip. nach Zu CNBCund ganze Systeme, die mit diesen Chips betrieben werden, können bis zu 200.000 US-Dollar kosten.

Trotz ihrer Kosten sind die Chips von NVIDIA sehr gefragt. Letztes Jahr waren die Wartezeiten bei Lieferungen sehr hoch so hoch wie 11 Monate. Und der Zugriff auf die KI-Chips von NVIDIA wird zunehmend als Statussymbol für Technologieunternehmen angesehen, die KI-Talente anziehen möchten. Anfang des Jahres pries Zuckerberg die Bemühungen des Unternehmens an, „eine enorme Menge an Infrastruktur“ aufzubauen, um die KI-Bemühungen von Meta voranzutreiben. „Am Ende dieses Jahres“, schrieb Zuckerberg, „werden wir etwa 350.000 Nvidia H100s haben – und insgesamt etwa 600.000 H100s-H100-Äquivalente an Rechenleistung, wenn man andere GPUs mit einbezieht.“

source-115

Leave a Reply