Connect with us

Nachrichten

Intel Sapphire Rapid-SP Xeon-CPUs mit bis zu 64 GB HBM2e-Speicher, spricht auch über Next-Gen-Xeon- und Rechenzentrums-GPUs für 2023+

blank

Published

blank

Auf der SC21 (Supercomputing 2021) veranstaltete Intel eine kurze Sitzung, in der sie diskutiert ihre Roadmap für Rechenzentren der nächsten Generation und sprach über ihre kommenden Ponte Vecchio GPUs und die Sapphire Rapids-SP Xeon CPUs.

Intel spricht auf der SC21 über Sapphire Rapids-SP Xeon-CPUs und Ponte Vecchio-GPUs

Intel hatte bereits bei Hot Chips 33 die meisten technischen Details zu seiner CPU- und GPU-Reihe für Rechenzentren der nächsten Generation besprochen. Sie bekräftigen, was sie gesagt haben, und enthüllen auch einige weitere Leckerbissen bei SuperComputing 21.

Intel feiert 50-jähriges Jubiläum von 4004: Der weltweit erste kommerzielle Mikroprozessor – eine Retrospektive

Die aktuelle Generation der skalierbaren Intel Xeon-Prozessoren wurde von unseren HPC-Ökosystem-Partnern weitgehend übernommen, und wir fügen neue Funktionen mit Sapphire Rapids hinzu – unserem skalierbaren Xeon-Prozessor der nächsten Generation, der derzeit bei Kunden bemustert wird. Diese Plattform der nächsten Generation bietet Multifunktionen für das HPC-Ökosystem und bietet mit HBM2e zum ersten Mal einen integrierten Speicher mit hoher Bandbreite, der die Sapphire Rapids Multi-Tile-Architektur nutzt. Sapphire Rapids bietet außerdem verbesserte Leistung, neue Beschleuniger, PCIe Gen 5 und andere aufregende Funktionen, die für KI, Datenanalyse und HPC-Workloads optimiert sind.

HPC-Workloads entwickeln sich schnell weiter. Sie werden vielfältiger und spezialisierter und erfordern einen Mix heterogener Architekturen. Obwohl die x86-Architektur weiterhin das Arbeitspferd für skalare Workloads ist, müssen wir uns kritisch anschauen, wie HPC-Workloads innerhalb von Vektor-, Matrix- und räumlichen Architekturen ausgeführt werden, wenn wir Leistungssteigerungen in Größenordnungen erzielen und die Exascale-Ära überwinden wollen. Wir müssen sicherstellen, dass diese Architekturen nahtlos zusammenarbeiten.Intel hat eine Strategie der „gesamten Arbeitslast“ verfolgt, bei der arbeitslastspezifische Beschleuniger und Grafikprozessoren (GPU) sowohl aus Hardware- als auch aus Softwaresicht nahtlos mit Zentraleinheiten (CPU) zusammenarbeiten können.

Wir setzen diese Strategie mit unseren skalierbaren Intel Xeon-Prozessoren der nächsten Generation und Intel Xe HPC-GPUs (Codename „Ponte Vecchio“) ein, die den 2-Exaflop-Supercomputer Aurora im Argonne National Laboratory antreiben werden. Ponte Vecchio hat die höchste Rechendichte pro Socket und pro Knoten und packt 47 Kacheln mit unseren fortschrittlichen Verpackungstechnologien: EMIB und Foveros. Auf Ponte Vecchio laufen über 100 HPC-Anwendungen. Wir arbeiten auch mit Partnern und Kunden wie ATOS, Dell, HPE, Lenovo, Inspur, Quanta und Supermicro zusammen, um Ponte Vecchio in ihren neuesten Supercomputern einzusetzen.

über Intel

Intel Sapphire Rapids-SP Xeon Rechenzentrums-CPUs

Laut Intel wird es den Sapphire Rapids-SP in zwei Paketvarianten geben, einer Standard- und einer HBM-Konfiguration. Die Standardvariante wird ein Chiplet-Design aus vier XCC-Dies mit einer Die-Größe von rund 400 mm2 aufweisen. Dies ist die Die-Größe für einen einzelnen XCC-Die und es werden insgesamt vier auf dem oberen Sapphire Rapids-SP Xeon-Chip sein. Jeder Chip wird über EMIB mit einer Rastergröße von 55u und einem Kernraster von 100u miteinander verbunden.

Der standardmäßige Sapphire Rapids-SP Xeon-Chip wird über 10 EMIB-Verbindungen verfügen und das gesamte Gehäuse misst mächtige 4446 mm2. Beim Übergang zur HBM-Variante erhalten wir eine erhöhte Anzahl von Interconnects, die auf 14 sitzen und benötigt werden, um den HBM2E-Speicher mit den Kernen zu verbinden.

Intel Core i7-12800H Alder-Lake-P-CPU-Benchmarks lecken ebenfalls, bis zu 25 % schneller als AMD Ryzen 7 5800H-CPU im Single-Threaded-Test

Die vier HBM2E-Speicherpakete werden über 8-Hi-Stacks verfügen, sodass Intel mindestens 16 GB HBM2E-Speicher pro Stack für insgesamt 64 GB im gesamten Sapphire Rapids-SP-Paket vorsieht. Apropos Paket: Die HBM-Variante misst wahnsinnige 5700 mm2 oder 28% größer als die Standardvariante. Im Vergleich zu den kürzlich durchgesickerten EPYC-Genua-Zahlen würde das HBM2E-Paket für Sapphire Rapids-SP um 5 % größer, während das Standardpaket 22 % kleiner ausfallen wird.

  • Intel Sapphire Rapids-SP Xeon (Standardpaket) – 4446mm2
  • Intel Sapphire Rapids-SP Xeon (HBM2E-Paket) – 5700mm2
  • AMD EPYC Genua (12 CCD-Paket) – 5428mm2

Intel gibt auch an, dass der EMIB-Link im Vergleich zu Standard-Gehäusedesigns eine doppelt so hohe Bandbreitendichte und eine viermal bessere Energieeffizienz bietet. Interessanterweise nennt Intel die neueste Xeon-Reihe logisch monolithisch, was bedeutet, dass sie sich auf die Verbindung beziehen, die die gleiche Funktionalität wie ein Single-Die bietet, aber technisch gesehen gibt es vier Chiplets, die miteinander verbunden werden. Die vollständigen Details zu den standardmäßigen 56-Kern- und 112-Thread-Sapphire-Rapids-SP-Xeon-CPUs können Sie hier lesen.

Intel Xeon SP-Familien:

Familienbranding Skylake-SP Cascade Lake-SP/AP Cooper Lake-SP Eissee-SP Saphir Stromschnellen Smaragdgrüne Stromschnellen Granit Stromschnellen Diamant-Stromschnellen
Prozessknoten 14nm+ 14nm++ 14nm++ 10nm+ Intel 7 Intel 7 Intel 4 Intel3?
Plattformname Intel Purley Intel Purley Intel Zederninsel Intel Whitley Intel Eagle-Stream Intel Eagle-Stream Intel Mountain Stream
Intel Birkenstrom
Intel Mountain Stream
Intel Birkenstrom
MCP (Multi-Chip Package)-SKUs Nein Jawohl Nein Nein Jawohl noch offen TBD (möglicherweise ja) TBD (möglicherweise ja)
Steckdose LGA 3647 LGA 3647 LGA 4189 LGA 4189 LGA 4677 LGA 4677 LGA 4677 noch offen
Maximale Kernanzahl Bis zu 28 Bis zu 28 Bis zu 28 Bis 40 Bis zu 56 Bis zu 64? Bis zu 120? noch offen
Maximale Thread-Anzahl Bis zu 56 Bis zu 56 Bis zu 56 Bis zu 80 Bis zu 112 Bis zu 128? Bis zu 240? noch offen
Max. L3-Cache 38,5 MB L3 38,5 MB L3 38,5 MB L3 60 MB L3 105 MB L3 120 MB L3? noch offen noch offen
Speicherunterstützung DDR4-2666 6-Kanal DDR4-2933 6-Kanal Bis zu 6-Kanal DDR4-3200 Bis zu 8-Kanal DDR4-3200 Bis zu 8-Kanal DDR5-4800 Bis zu 8-Kanal DDR5-5600? noch offen noch offen
Unterstützung für PCIe-Generation PCIe 3.0 (48 Lanes) PCIe 3.0 (48 Lanes) PCIe 3.0 (48 Lanes) PCIe 4.0 (64 Lanes) PCIe 5.0 (80 Lanes) PCIe 5.0 PCIe 6.0? PCIe 6.0?
TDP-Bereich 140W-205W 165W-205W 150W-250W 105-270W Bis zu 350W Bis zu 350W noch offen noch offen
3D Xpoint Optane DIMM N / A Apache-Pass Barlowpass Barlowpass Krähenpass Krähenpass? Donahue-Pass? Donahue-Pass?
Wettbewerb AMD EPYC Neapel 14nm AMD EPYC Rom 7nm AMD EPYC Rom 7nm AMD EPYC Mailand 7nm+ AMD EPYC Genua ~5nm AMD Next-Gen EPYC (nach Genua) AMD Next-Gen EPYC (nach Genua) AMD Next-Gen EPYC (nach Genua)
Start 2017 2018 2020 2021 2022 2023? 2024? 2025?

Intel Ponte Vecchio Rechenzentrum-GPUs

Beim Wechsel zu Ponte Vecchio skizzierte Intel einige Hauptmerkmale seiner Flaggschiff-GPU für Rechenzentren wie 128 Xe-Kerne, 128 RT-Einheiten, HBM2e-Speicher und insgesamt 8 Xe-HPC-GPUs, die miteinander verbunden werden. Der Chip wird über bis zu 408 MB L2-Cache in zwei separaten Stapeln verfügen, die über die EMIB-Verbindung verbunden werden. Der Chip wird über mehrere Dies verfügen, die auf Intels eigenem ‚Intel 7‘-Prozess und den N7 / N5-Prozessknoten von TSMC basieren.

Intel hat zuvor auch die Gehäuse- und Die-Größe seines Flaggschiffs Ponte Vecchio GPU auf Basis der Xe-HPC-Architektur detailliert beschrieben. Der Chip besteht aus 2 Kacheln mit 16 aktiven Würfeln pro Stapel. Die maximale aktive Top-Die-Größe wird 41 mm2 betragen, während die Basis-Die-Größe, die auch als „Compute Tile“ bezeichnet wird, bei 650 mm2 liegt.

Die Ponte Vecchio GPU verwendet 8 HBM 8-Hi Stacks und enthält insgesamt 11 EMIB-Interconnects. Das gesamte Intel Ponte Vecchio-Paket würde 4843,75 mm2 messen. Es wird auch erwähnt, dass der Bump-Pitch für Meteor Lake-CPUs mit High-Density 3D Forveros-Packaging 36u betragen wird.

Abgesehen davon hat Intel auch eine Roadmap veröffentlicht, in der bestätigt wird, dass die nächste Generation der Xeon Sapphire Rapids-SP-Familie und die Ponte Vecchio-GPUs 2022 verfügbar sein werden, aber es gibt auch die Produktlinie der nächsten Generation, die für 2023 und darüber hinaus geplant ist . Intel hat nicht ausdrücklich gesagt, was es bringen will, aber wir wissen, dass der Nachfolger von Sapphire Rapids als Emerald und Granite Rapids bekannt sein wird und der Nachfolger davon als Diamond Rapids bekannt sein wird.

Auf der GPU-Seite wissen wir nicht, wie der Nachfolger von Ponte Vecchio bekannt sein wird, erwarten jedoch, dass er mit NVIDIAs und AMDs GPUs der nächsten Generation für den Rechenzentrumsmarkt konkurrieren wird.

Für die Zukunft bietet Intel mehrere Lösungen der nächsten Generation für fortschrittliche Gehäusedesigns wie Forveros Omni und Forveros Direct, die in die Angstrom-Ära der Transistorentwicklung eintreten.

GPU-Beschleuniger für Rechenzentren der nächsten Generation

GPU-Name AMD Instinct MI200 NVIDIA Hopper GH100 Intel Xe HPC
Flaggschiff-Produkt AMD Instinct MI250X NVIDIA H100 Intel Ponte Vecchio
Verpackungsdesign MCM (Unendlichkeitsgewebe) MCM (NVLINK) MCM (EMIB + Forveros)
GPU-Architektur Aldebaran (CDNA 2) Trichter GH100 Xe-HPC
GPU-Prozessknoten 6nm 5nm? 7nm (Intel 4)
GPU-Kerne 14.080 18.432? 32.768?
GPU-Taktgeschwindigkeit 1700 MHz TBA TBA
L2/L3-Cache 2 x 8 MB TBA 2 x 204 MB
FP16-Berechnung 383 TOPs TBA TBA
FP32-Berechnung 95,7 TFLOPS TBA ~45 TFLOPs (A0 Silizium)
FP64-Berechnung 47,9 TFLOPS TBA TBA
Speicherkapazität 128 GB HBM2E 128GB HBM2E? TBA
Speicheruhr 3,2 Gbit/s TBA TBA
Speicherbus 8192-Bit 8192-Bit? 8192-Bit
Speicherbandbreite 3,2 TB/s ~2,5 TB/s? 5 TB/s
Formfaktor Dual Slot, volle Länge / OAM Dual Slot, volle Länge / OAM OAM
Kühlung Passive Kühlung
Flüssigkeitskühlung
Passive Kühlung
Flüssigkeitskühlung
Passive Kühlung
Flüssigkeitskühlung
TDP 4. Quartal 2021 2H 2022 2022-2023?