Jensen Huang, CEO von NVIDIA, besucht Taiwan, während die Massenproduktion der GPUs Hopper H200 und Blackwell B100 näher rückt


Jensen Huang, CEO von NVIDIA, hat in den letzten Tagen bei seinem Besuch in Taiwan „entscheidende“ Reisen unternommen, um die Lieferung der Hopper H200- und Blackwell B100-GPUs der nächsten Generation zu „rationalisieren“.

Der Besuch des CEO von NVIDIA in Taiwan markiert den ersten Schritt des Unternehmens in Richtung Hopper H200- und Blackwell B100-KI-GPUs der nächsten Generation, die die Marktdynamik neu gestalten werden

Es scheint, als würde sich Team Green auf ein weiteres progressives Jahr vorbereiten, da NVIDIA nicht nur rasche Fortschritte in seinem KI-Portfolio gemacht hat, sondern das Unternehmen auch trotz Rückschlägen wie den neuen US-Vorschriften bestrebt ist, alle interessanten Regionen abzudecken. Wir berichteten gestern über den Besuch von Jensen Huang in Peking, wo er nicht nur an den Feierlichkeiten zum Pekinger Neujahrsfest teilnahm, sondern Berichten zufolge auch Treffen mit mehreren chinesischen Kunden wie Alibaba und Tencent abhielt, um ihnen zu versichern, dass NVIDIA hier bleiben wird.

Es ist jetzt offengelegt dass Jensen Huang offenbar nach dem Besuch in China beschlossen hat, auch nach Taiwan zu reisen, wo er die wichtigsten Zulieferer des Unternehmens wie TSMC und Wistron besuchte, um sich die Fortschritte bei der Massenfertigung der KI-GPUs der nächsten Generation H200 und B100 des Unternehmens anzusehen. Dieses Jahr markiert den Übergang zu einer neueren Generation von KI-Produkten, weshalb das Jahr 2024 nicht nur für NVIDIA, sondern auch für andere am KI-Wettlauf beteiligte Unternehmen als „entscheidend“ angesehen wird. Es wird prognostiziert, dass die weltweiten KI-Lieferungen in diesem Jahr voraussichtlich einen enormen Anstieg verzeichnen werden, wobei die geschätzten Zahlen etwa 350.000 Chips erreichen werden, wovon ein erheblicher Anteil von Team Green betroffen ist.

Bildquelle: NVIDIA

Um einen kurzen Rückblick darauf zu geben, was Sie von den kommenden Produkten von NVIDIA erwarten können: Das erste ist die Hopper H200-GPU, die mit der HBM3e-Lösung von Micron mit Speicherkapazitäten von bis zu 141 GB und einer Bandbreite von bis zu 4,8 TB/s ausgestattet ist, was 2,4 entspricht x mehr Bandbreite und doppelte Kapazität im Vergleich zur NVIDIA A100.

Mit dieser neuen Speicherlösung kann NVIDIA die KI-Inferenzleistung im Vergleich zu seinen H100-GPUs in Anwendungen wie Llama 2 (70 Milliarden Parameter-LLM) nahezu verdoppeln. Die nächste große Veröffentlichung ist die Blackwell B100 AI GPU, die durch die Einführung eines Chiplet-Designs entscheidende Leistungssteigerungen pro Watt bringen wird.

Die nächsten Generationen der KI-GPUs Hopper H200 und Blackwell B100 von NVIDIA werden voraussichtlich im Jahr 2024 auf den Markt kommen, wobei B100 Berichten zufolge auf das vierte Quartal verschoben wird, da Hopper im Jahr 2024 eine höhere Akzeptanzrate sichert. Dieses Jahr wird für die gesamte Technologiebranche interessant , insbesondere mit den Fortschritten in der künstlichen Intelligenz und den damit verbundenen Märkten. NVIDIA wird voraussichtlich auf der GTC 2024 im März weitere Informationen zu seinen KI- und Rechenzentrumschips vorstellen.

Teilen Sie diese Geschichte

Facebook

Twitter

source-99

Leave a Reply