Nachrichten
Die HBM-Branche wird ihren Umsatz bis 2025 dank KI-Chips der nächsten Generation von NVIDIA und anderen verdoppeln
Der HBM-Markt, der oft als das Rückgrat des KI-Computing gilt, Bis 2025 soll sich der Marktumsatz verdoppelnwährend sich die Branche in Richtung Chips der nächsten Generation bewegt.
Die HBM-Märkte haben durch den Einfluss von KI neue Hoffnung gesehen und ein enormes Umsatzwachstum ausgelöst
Speicher mit hoher Bandbreite ist ein Segment, dessen Nachfrage in letzter Zeit enorm gestiegen ist, insbesondere mit dem Aufkommen des KI-Hypes, der Unternehmen wie Samsung und SK Hynix tief in das Geschäft eingebracht hat. Aus heutiger Sicht sind Samsung, SK Hynix und Micron die drei „großen“ Player auf den HBM-Märkten, und es wird erwartet, dass sie dank der laufenden Entwicklungen der Unternehmen, insbesondere der nächsten Generation, auch in Zukunft dominieren werden. Gen-Prozesse wie HBM4, die in der Industrie auf großes Interesse gestoßen sind.
Vor diesem Hintergrund geht der Marktforscher Gartner davon aus, dass der HBM-Markt bis 2025 satte 4,976 Milliarden US-Dollar erreichen wird, was fast einer Verdoppelung der im Jahr 2023 erreichten Zahlen entspricht. Die Schätzung basiert ausschließlich auf der aktuellen und erwarteten Nachfrage aus der Branche, und hier gibt es keine Überraschungen, da der Schlüsselbereich, in dem HBM am meisten verkauft, seine Anwendung in KI-GPUs ist. Wie bereits mehrfach berichtet, führte der plötzliche Anstieg der KI-GPU-Nachfrage zu einem Mangel an HBM auf den Märkten, da HBM die Hauptkomponente in der Zusammensetzung eines KI-Beschleunigers ist.
Es besteht auch ein großer Optimismus hinsichtlich der Zukunft von HBM, da die Branche laut früherer Berichterstattung tatsächlich auf neuere Standards umsteigt, wobei HBM3e und HBM4 von den Herstellern voraussichtlich weit verbreitet sein werden.
NVIDIA hat für seine Kunden im Jahr 2024 viel geplant, da das Unternehmen bereits die H200 Hopper-GPU angekündigt hat, deren Masseneinführung im nächsten Jahr erwartet wird, gefolgt von der Einführung der B100 „Blackwell“-KI-GPUs, die beide dies tun werden auf der HBM3e-Speichertechnologie basieren. Eine ähnliche Situation herrscht auch im Lager von AMD mit der Einführung der AMD Instinct-GPUs der nächsten Generation mit dem neueren HBM-Typ.
Vergleich der HBM-Speicherspezifikationen
DRAM | HBM1 | HBM2 | HBM2e | HBM3 | HBM3 Gen2 | HBMNext (HBM4) |
---|---|---|---|---|---|---|
I/O (Busschnittstelle) | 1024 | 1024 | 1024 | 1024 | 1024-2048 | 1024-2048 |
Vorabruf (E/A) | 2 | 2 | 2 | 2 | 2 | 2 |
Maximale Bandbreite | 128 GB/s | 256 GB/s | 460,8 GB/s | 819,2 GB/s | 1,2 TB/s | 1,5 – 2,0 TB/s |
DRAM-ICs pro Stapel | 4 | 8 | 8 | 12 | 8-12 | 8-12 |
Maximale Kapazität | 4GB | 8 GB | 16 Gigabyte | 24 GB | 24 – 36 GB | 36-64 GB |
tRC | 48ns | 45ns | 45ns | TBA | TBA | TBA |
tCCD | 2ns (=1tCK) | 2ns (=1tCK) | 2ns (=1tCK) | TBA | TBA | TBA |
VPP | Externes VPP | Externes VPP | Externes VPP | Externes VPP | Externes VPP | TBA |
VDD | 1,2V | 1,2V | 1,2V | TBA | TBA | TBA |
Befehlseingabe | Doppelkommando | Doppelkommando | Doppelkommando | Doppelkommando | Doppelkommando | Doppelkommando |
Die Speicherbranche hat mit dem Aufkommen der KI auf den Märkten tatsächlich einen Aufschwung erlebt, und soweit die Indikatoren uns sagen, wird sich die Lage vorerst nicht abkühlen.
Nachrichtenquelle: Ctee