Gefragt in Hochleistungsanwendungen Ausverkauft: Die geplante HBM-Jahresproduktionsmenge von SK hynix

Von Susanne Braun 3 min Lesedauer

Anbieter zum Thema

Eigenen Worten zufolge hat SK hynix bereits die für dieses Jahr geplante Produktionsmenge von HBM ausverkauft. Wenig verwunderlich mit Blick auf die steigende Nutzung von KI und High-Performance-Computing.

HBM3E von Sk hynix.
HBM3E von Sk hynix.
(Bild: SK hynix)

HBM steht für High Bandwith Memory und basiert auf DRAM-Technologie (Dynamic Random Access Memory). Im Vergleich zu Single-Plane-DRAM erreicht HBM höhere Geschwindigkeiten bei der Datenverarbeitung. Der Grund dahinter: HBM verbindet mehrere DRAM vertikal mittels Through-Silicon-Via und Bumps.

Die höheren Geschwindigkeiten sind vorwiegend in Hochleistungsanwendungen gefragt, etwa in Künstlicher Intelligenz und maschinellem Lernen, bei High-Performance-Computing sowie in Netzwerk- und Serveranwendungen. Dazu wird HBM-DRAM oft in High-End-Grafikkarten für Gaming, Videobearbeitung und anderen grafikintensiven Anwendungen verwendet. In einer Welt, in der hohe Geschwindigkeiten immer gefragter werden, egal, ob im Rennspiel auf dem Fernseher oder bei der nächsten Antwortgenerierung eines Chatbots, sind die HBM der neuesten Generationen heiß begehrt.

Wie begehrt, das zeigt ein Interview mit Vice President Kitae Kim, Head of HBM Sales & Marketing des südkoreanischen Speicher-Hersteller SK hynix. Das Unternehmen ist einer der weltweit führenden Hersteller von Speicherchips wie DRAM und NAND-Flash-Speichern. Bereits im vergangenen Jahr war HBM von SK hynix gefragt wie nie. Und diese Nachfrage scheint nicht abzureißen.

HBM heiß begehrt

„Da das KI-Ökosystem mit der Diversifizierung und Raffinesse der generativen KI-Dienste wächst, steigt die Nachfrage nach HBM – einer leistungsstarken und hoch kapazitiven Speicherlösung“, so Kitae Kim in einem Interview auf der Webseite von SK hynix. Trotz einiger anhaltender externer Unsicherheiten glaubt man bei SK hynix daran, dass sich der Halbleiterspeichermarkt in diesem Jahr im Aufwärtstrend befindet. Weiterhin kurbelt die Anwendung von KI in immer mehr Bereichen, einschließlich On-Device2-Produkten wie mit KI ausgestatteten PCs und Smartphones, die Nachfrage nicht nur nach HBM3E, sondern auch nach anderen Produkten wie DDR5 und LPDDR5T an.

„Unsere für dieses Jahr geplante Produktionsmenge an HBM ist bereits ausverkauft. Obwohl das Jahr 2024 gerade erst begonnen hat, haben wir bereits mit den Vorbereitungen für 2025 begonnen, um dem Markt einen Schritt voraus zu sein“, so Kim.

In dem Unternehmen geht es, so lässt sich aus dem gesamten Interview ziehen, primär darum, mithilfe von Geschwindigkeit allen Mitbewerbern im Markt im Voraus zu sein. Es steht zu vermuten, dass SK hynix in diesem Jahr noch einige Hebel in Bewegung setzen wird, um zusätzliche Kapazitäten für die Produktion von HBM3 und HBM3E zu schaffen – kurzfristig kann sich das allerdings als große Herausforderung herausstellen. Es macht dennoch nicht den Anschein, als könne die Konkurrenz SK hynix kurzfristig gesehen den Rang ablaufen. Aber vielleicht langfristig?

Wenig Konkurrenz, aber viele Innovationsmöglichkeiten

Laut einer aktuellen Analyse von TrendForce teilen drei HBM-Hersteller den Markt im Wesentlichen unter sich auf:

  • SK hynix (geschätzter Marktanteil 2022: 50 Prozent),
  • Samsung (geschätzter Marktanteil 2022: 40 Prozent) und
  • Micron (geschätzter Marktanteil 2022: 10 Prozent).

Um den Abstand zum Marktführer SK hynix zu verringern, wird von Samsung erwartet, dass sich die HBM-Produktion im Jahr 2024 im Vergleich zum Vorjahr um das Zweieinhalbfache erhöhen und im Jahr 2025 dann abermals verdoppelt wird. Dazu arbeitet man bei Samsung unter anderem an einer HBM3E-Variante, bei der zwölf DRAM gestapelt werden. HBM3E 12H bietet eine Bandbreite von bis zu 1.280 Gigabyte pro Sekunde (GB/s) und eine Speicherkapazität von 36 Gigabyte (GB). Im Vergleich zum 8-Stack HBM3 8H haben sich beide Aspekte laut Herstellerangaben um mehr als 50 Prozent verbessert. Die Massenproduktion soll in der ersten Jahreshälfte 2024 starten.

Micron hingegen scheint bei diesem Wettbewerb ins Hintertreffen geraten zu sein – doch lässt sich das so pauschal sagen? Nein. Man hatte in dem US-amerikanischen Unternehmen beschlossen, die Generation HBM3 zu überspringen und direkt an einem HBM3E mit 24 GB Speicherkapazität zu arbeiten. Dieser befindet sich seit Kurzem in der Massenproduktion und wird für Nvidias H200-GPU genutzt. Die detailliertere Vorstellung des HBM3E 12H von Micron wird für den 8. März 2024 im Rahmen von Nvidias KI-Konferenz GTC erwartet. Auf der Veranstaltung wird sicherlich auch über die Fortschritte für die nächste HBM-Generation (HBM4) gesprochen.

Flaschenhals Produktionskapazitäten?

Eingangs erwähnte Kitae Kim von SK hynix, dass die für dieses Jahr geplante Produktionsmenge an HBM bereits ausverkauft sei. Was wäre, wenn kein Hersteller die Kapazitäten erhöhen kann? Engpässe bei der Verfügbarkeit von HBM treten vor allem während der Markteinführung neuer Grafikkartenmodelle auf, insbesondere bei High-End-Grafikkarten für den Gaming- und Workstation-Bereich.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Entsprechend kann die begrenzte Produktionskapazität von HBM-Speichern etwa zu Knappheit und Preiserhöhungen aufgrund der erhöhten Nachfrage und begrenzten Verfügbarkeit führen. Engpässe sind ebenfalls in der Lage, die Entwicklung und Einführung neuer Technologien zu behindern. (sb)

(ID:49934533)