SK hynix hat hervorgehoben, dass nicht nur das HBM-Volumen für 2024, sondern fast das gesamte HBM-Volumen für 2025 ausverkauft ist, da die Nachfrage nach KI ins Unermessliche steigt.
Bei SK hynix ist fast das gesamte HBM-Volumen für 2025 ausverkauft, 12-Hi HBM3E wird im dritten Quartal 2024 bemustert und ist produktionsbereit
Während seiner jüngsten Pressekonferenz kündigte SK hynix Pläne an, in eine neue M15X-Fabrik im Cheongju- und Yongin-Halbleitercluster in Korea sowie in fortschrittliche Verpackungsanlagen in den USA (Indiana) zu investieren.
SK hynix gab bekannt, dass die wachsende Nachfrage nach KI die gesamte HBM-Kapazität für 2024 erschöpft hat und sogar die Menge für 2025 fast vollständig ausverkauft ist, was nur zeigt, wie groß der Bedarf an schnellem HBM-Speicher für Rechenzentren der aktuellen und nächsten Generation ist. NVIDIA ist einer der wichtigsten Partner von SK hynix und nutzt seine HBM3- und HBM3e-Speicherlösungen für seine Hopper H200- und Blackwell AI-GPU-Reihe. Das Unternehmen geht davon aus, bald mit der Bemusterung des 12-Hi-HBM3E-DRAM zu beginnen und die Produktion im kommenden Quartal (3. Quartal 2024) aufzunehmen.
- Das Unternehmen prognostiziert jetzt eine schnelle Ausweitung der KI-Technologie auf eine breitere Palette von On-Device-Anwendungen wie Smartphones, PCs und Autos aus Rechenzentren
- Die Nachfrage nach ultraschnellen Speicherprodukten mit hoher Kapazität und geringem Stromverbrauch für KI-Anwendungen wird voraussichtlich explosionsartig steigen
- Das Unternehmen verfügt über die branchenweit besten Technologien für verschiedene Produkte, darunter HBM, TSV-basiertes Hochleistungs-DRAM und Hochleistungs-eSSD
- SK hynix ist bereit, seinen Kunden durch strategische Zusammenarbeit mit globalen Geschäftspartnern die branchenweit besten maßgeschneiderten Speicherlösungen anzubieten
- Auf der Produktionsseite war die Produktion von HBM ab 2024 bereits ausverkauft, während die Produktion ab 2025 fast ausverkauft war
- Was die HBM-Technologie angeht, plant das Unternehmen, im Mai Muster von 12-Zoll-HBM3E mit der branchenweit besten Leistung bereitzustellen, was den Beginn der Massenproduktion im 3. Quartal ermöglichen soll
- Das Unternehmen strebt qualitatives Wachstum durch bessere Kostenwettbewerbsfähigkeit, eine höhere Rentabilität und eine Steigerung des Umsatzes von Mehrwertprodukten an
- Der Plan besteht darin, die finanzielle Solidität weiter zu verbessern, indem die Höhe des Bargeldbestands durch eine flexible Reaktion auf Investitionen bei sich ändernden Nachfragebedingungen erhöht wird
- Das Unternehmen ist bestrebt, einen Beitrag zur heimischen Wirtschaft zu leisten und dabei zu helfen, Koreas Position als führendes Unternehmen im Bereich KI-Speicher voranzutreiben, indem es sich zu einem vertrauenswürdigen Kunden entwickelt, einem stabilen Unternehmen, das sich nicht von den geschäftlichen Umständen im KI-Zeitalter beeinflussen lässt
Neben HBM3E produziert SK hynix auch DRAM-Module mit mehr als 256 GB Kapazität in Massenproduktion und hat bereits die weltweit schnellste LPDDR5T-Lösung für mobile Geräte kommerzialisiert. Für die Zukunft plant SK hynix die Einführung mehrerer Speicherlösungen der nächsten Generation wie HBM4, HBM4E, LPDDR6, 300 TB SSDs, CXL-Pooled Memory Solutions und PIM-Module (Processing-In-Memory).
- Im DRAM-Bereich produziert das Unternehmen HBM3E und Module mit einer ultrahohen Kapazität von mehr als 256 GB in Massenproduktion und hat gleichzeitig den weltweit schnellsten LPDDR5T kommerzialisiert
- Das Unternehmen ist ein Top-Anbieter von KI-Speicher, auch im NAND-Bereich, als einziger Anbieter von QLC-basierten SSDs mit mehr als 60 TB
- Entwicklung von Produkten der nächsten Generation mit verbesserter Leistung im Gange
- Das Unternehmen plant die Einführung innovativer Speicher wie HBM4, HBM4E, LPDDR6, 300 TB SSD, CXL Pooled Memory Solution und Processing-In-Memory
- Das proprietäre MR-MUF von SK hynix ist eine Kerntechnologie für HBM-Verpackungen
- Die Ansichten, dass MR-MUF bei der höheren Stapelung vor technologischen Herausforderungen stehen wird, sind falsch, wie die erfolgreiche Massenproduktion von 12-Hoch-HBM3 von SK Hynix zeigt Fortschrittliche MR-MUF-Technologie
- MR-MUF senkt den Druck beim Stapeln der Chips auf ein Niveau von 6 %, erhöht die Produktivität um das Vierfache, indem die für den Prozess erforderliche Zeit verkürzt wird, und verbessert gleichzeitig die Wärmeableitung um 45 % im Vergleich zur vorherigen Technologie
- Das kürzlich von SK hynix eingeführte fortschrittliche MR-MUF verbessert die Wärmeableitung durch den Einsatz eines neuen Schutzmaterials um 10 % und behält gleichzeitig die bestehenden Vorteile von MR-MUF bei
- Fortschrittliches MR-MUF, das eine Hochtemperatur-Niederdruck-Methode anwendet, die für eine hervorragende Verzugskontrolle bekannt ist, eine optimale Lösung für Hochstapelung und Entwicklung einer Technologie zur Realisierung von 16-Hoch-Stacking im Gange
- Das Unternehmen plant die Einführung von Advanced MR-MUF zur Realisierung von 16-Hoch-HBM4 und prüft gleichzeitig die Hybrid-Bonding-Technologie
- Unabhängig davon kündigte das Unternehmen letzten Monat einen Plan zum Bau fortschrittlicher Verpackungsanlagen für KI-Speicher in West Lafayette, Indiana, an
- Die Massenproduktion von KI-Produkten wie HBM der nächsten Generation aus der Fabrik in Indiana soll im zweiten Halbjahr 2028 beginnen
Für HBM wird SK hynix seine MR-MUF-Technologie für die Verpackung des DRAM nutzen. Eine fortschrittliche Version der Technologie wird zur Massenproduktion von 12-Hi-HBM3-Speichermodulen eingesetzt, wodurch die Produktivität um das Vierfache gesteigert und die Wärmeableitung im Vergleich zu früheren Technologien um 45 % verbessert wird.
Die gleiche Verpackungstechnologie wird den Weg für 16-Hi-HBM-Speicher ebnen, und das Unternehmen prüft derzeit auch den Einsatz der Hybrid-Bonding-Technologie für seine 16-Hi-HBM4-Module. Die Massenproduktion der nächsten Generation von HBM-Speichern wird voraussichtlich im 2. Halbjahr 2028 in der Fabrik in Indiana beginnen. Die Massenproduktion der Standard-HBM4-Module wird voraussichtlich im Jahr 2026 für das nächste Kapitel der KI beginnen.