HBM3-Speicher wird in KI-GPUs der nächsten Generation von NVIDIA und AMD dominieren


TrendForce Berichte dass HBM3- und HBM3e-Speicher der nächsten Generation die KI-GPU-Branche dominieren werden, insbesondere nach dem deutlich gestiegenen Interesse von Unternehmen, DRAM zu integrieren.

Die zukünftigen KI-GPUs von NVIDIA und AMD nutzen die Fähigkeiten schnellerer HBM3-Speicherdesigns

Die vorhandenen NVIDIA A100- und H100-KI-GPUs werden mit HBM2e- bzw. HBM3-Speicher betrieben, die 2018 bzw. 2020 auf den Markt kamen. Mehrere Hersteller, wie Micron, SK Hynix und Samsung, entwickeln rasch Anlagen für die Massenproduktion von neuem und schnellerem HBM3-Speicher , und es wird nicht lange dauern, bis es zum neuen Maßstab wird.

Es gibt ein allgemeines Detail über den HBM3-Speicher, das vielen Menschen nicht bekannt ist. Wie von TrendForce hervorgehoben, wird HBM3 in verschiedenen Variationen erhältlich sein. Der HBM3 der unteren Preisklasse wird Berichten zufolge mit 5,6 bis 6,4 Gbit/s laufen, während die höheren Varianten die 8-Gbit/s-Marke überschreiten. Die High-End-Variante wird „HBM3P, HBM3A, HBM3+ und HBM3 Gen2“ heißen.

Bildquelle: Trendforce

Wir haben kürzlich berichtet, dass die HBM-Branche mit Sicherheit einen deutlichen Anstieg des Marktanteils verzeichnen wird, wobei SK Hynix an der Spitze steht. Es wird erwartet, dass zukünftige KI-GPUs, wie die AMD MI300 Instinct GPUs und NVIDIAs H100, über den HBM3-Prozess der nächsten Generation verfügen werden, bei dem SK Hynix die Oberhand hat, da es bereits die Herstellungsphase erreicht hat und eine Musteranfrage von erhalten hat NVIDIA selbst.

Micron hat kürzlich auch Pläne für sein zukünftiges HBM4-Speicherdesign angekündigt, aber das wird nicht vor 2026 erwartet, sodass die kommenden NVIDIA Blackwell-GPUs mit dem Codenamen „GB100“ wahrscheinlich die schnelleren HBM3-Varianten nutzen werden, wenn sie das nächste Mal zwischen 2024 und 2025 auf den Markt kommen. Die Massenproduktion des HBM3E-Speichers, der Prozesstechnologie der 5. Generation (10 nm) nutzt, wird voraussichtlich in der ersten Jahreshälfte 2024 beginnen und sowohl Samsung als auch SK Hynix werden voraussichtlich hochfahren.

SK hynix stellt als Erster 12-Layer-HBM3-Speicher mit 24 GB Kapazität pro Stack vor, Probeexemplar für Kunden 1

Konkurrenten wie Samsung und Micron geben Gas, mehrere Berichte drehen sich um die Unternehmen. Es hieß, Samsung habe NVIDIA vorgeschlagen, sich über seine Geschäftsbereiche sowohl um die Wafer- als auch die Speicherbeschaffung zu kümmern. Gleichzeitig hat Micron angeblich hat sich mit TSMC zusammengetan, um Speicherlieferant für die KI-GPUs von NVIDIA zu werden.

In der vorherigen Berichterstattung haben wir die Aussichten der KI-Branche anhand der von TrendForce veröffentlichten Zahlen erörtert. Es wird prognostiziert, dass die Auslieferungen von KI-Servern voraussichtlich um 15,4 % zunehmen werden, und die jährliche Wachstumsrate (CAGR, Compound Annual Growth Rate) soll von 2023 bis 2027 bei 12,2 % liegen der Drang zur Innovation.

Nachrichtenquelle: GeschäftKorea

Teilen Sie diese Geschichte

Facebook

Twitter

source-99

Leave a Reply