Connect with us

Nachrichten

Die HBM-Branche wird ihren Umsatz bis 2025 dank KI-Chips der nächsten Generation von NVIDIA und anderen verdoppeln

Die HBM-Branche wird ihren Umsatz bis 2025 dank KI-Chips der nächsten Generation von NVIDIA und anderen verdoppeln

Der HBM-Markt, der oft als das Rückgrat des KI-Computing gilt, Bis 2025 soll sich der Marktumsatz verdoppelnwährend sich die Branche in Richtung Chips der nächsten Generation bewegt.

Die HBM-Märkte haben durch den Einfluss von KI neue Hoffnung gesehen und ein enormes Umsatzwachstum ausgelöst

Speicher mit hoher Bandbreite ist ein Segment, dessen Nachfrage in letzter Zeit enorm gestiegen ist, insbesondere mit dem Aufkommen des KI-Hypes, der Unternehmen wie Samsung und SK Hynix tief in das Geschäft eingebracht hat. Aus heutiger Sicht sind Samsung, SK Hynix und Micron die drei „großen“ Player auf den HBM-Märkten, und es wird erwartet, dass sie dank der laufenden Entwicklungen der Unternehmen, insbesondere der nächsten Generation, auch in Zukunft dominieren werden. Gen-Prozesse wie HBM4, die in der Industrie auf großes Interesse gestoßen sind.

Vor diesem Hintergrund geht der Marktforscher Gartner davon aus, dass der HBM-Markt bis 2025 satte 4,976 Milliarden US-Dollar erreichen wird, was fast einer Verdoppelung der im Jahr 2023 erreichten Zahlen entspricht. Die Schätzung basiert ausschließlich auf der aktuellen und erwarteten Nachfrage aus der Branche, und hier gibt es keine Überraschungen, da der Schlüsselbereich, in dem HBM am meisten verkauft, seine Anwendung in KI-GPUs ist. Wie bereits mehrfach berichtet, führte der plötzliche Anstieg der KI-GPU-Nachfrage zu einem Mangel an HBM auf den Märkten, da HBM die Hauptkomponente in der Zusammensetzung eines KI-Beschleunigers ist.

NVIDIA arbeitet und hält sich bei der Entwicklung neuer KI-Chips für China vollständig an die US-Richtlinien 1

Es besteht auch ein großer Optimismus hinsichtlich der Zukunft von HBM, da die Branche laut früherer Berichterstattung tatsächlich auf neuere Standards umsteigt, wobei HBM3e und HBM4 von den Herstellern voraussichtlich weit verbreitet sein werden.

NVIDIA hat für seine Kunden im Jahr 2024 viel geplant, da das Unternehmen bereits die H200 Hopper-GPU angekündigt hat, deren Masseneinführung im nächsten Jahr erwartet wird, gefolgt von der Einführung der B100 „Blackwell“-KI-GPUs, die beide dies tun werden auf der HBM3e-Speichertechnologie basieren. Eine ähnliche Situation herrscht auch im Lager von AMD mit der Einführung der AMD Instinct-GPUs der nächsten Generation mit dem neueren HBM-Typ.

Vergleich der HBM-Speicherspezifikationen

DRAM HBM1 HBM2 HBM2e HBM3 HBM3 Gen2 HBMNext (HBM4)
I/O (Busschnittstelle) 1024 1024 1024 1024 1024-2048 1024-2048
Vorabruf (E/A) 2 2 2 2 2 2
Maximale Bandbreite 128 GB/s 256 GB/s 460,8 GB/s 819,2 GB/s 1,2 TB/s 1,5 – 2,0 TB/s
DRAM-ICs pro Stapel 4 8 8 12 8-12 8-12
Maximale Kapazität 4GB 8 GB 16 Gigabyte 24 GB 24 – 36 GB 36-64 GB
tRC 48ns 45ns 45ns TBA TBA TBA
tCCD 2ns (=1tCK) 2ns (=1tCK) 2ns (=1tCK) TBA TBA TBA
VPP Externes VPP Externes VPP Externes VPP Externes VPP Externes VPP TBA
VDD 1,2V 1,2V 1,2V TBA TBA TBA
Befehlseingabe Doppelkommando Doppelkommando Doppelkommando Doppelkommando Doppelkommando Doppelkommando

Die Speicherbranche hat mit dem Aufkommen der KI auf den Märkten tatsächlich einen Aufschwung erlebt, und soweit die Indikatoren uns sagen, wird sich die Lage vorerst nicht abkühlen.

Nachrichtenquelle: Ctee

Teilen Sie diese Geschichte

Facebook

Twitter