Nachrichten

Die NVIDIA DGX Station 320G verfügt über Quad-Ampere-A100-GPUs mit 320 GB Speicher und 2,5 PFLOPs für 149.000 US-Dollar

NVIDIA hat gerade angekündigt Es handelt sich um einen brandneuen DGX Station 320G AI-Server, der auf den Ampere A100 Tensor Core-GPUs basiert. Die DGX Station 320G verfügt über die aktualisierten NVIDIA A100 Tensor Core-GPUs, die doppelt so viel Speicher und Multi-Petaflops von AI-PS bieten.

NVIDIA stellt DGX Station 320G AI-Server mit 320 GB Speicher, AMD EPYC 64-Kern-CPU und Quad-NVIDIA Ampere A100-GPUs vor

Die NVIDIA DGX Station 320G richtet sich an den KI-Markt und beschleunigt das maschinelle Lernen und die Leistung von Data Science für Unternehmensbüros, Forschungseinrichtungen, Labors oder Home Offices überall. Laut NVIDIA ist die DGX Station 320G der schnellste Server in einer Box, die der KI-Forschung gewidmet ist.

NVIDIA erhöht den geschätzten Umsatz mit Bergbaukarten um 100 Millionen US-Dollar – CEO teilt Arm Deal-Pläne

Die DGX Station 320G von NVIDIA unterstützt KI-Innovationsorganisationen auf der ganzen Welt hat die DGX Station eingeführt, um KI und Datenwissenschaft in Branchen wie Bildung, Finanzdienstleistungen, Regierung, Gesundheitswesen und Einzelhandel zu betreiben. Zu diesen KI-Führern gehören:

  • Die BMW Group Production nutzt NVIDIA DGX-Stationen, um Erkenntnisse schneller zu ermitteln, während sie KI-Modelle entwickeln und einsetzen, die den Betrieb verbessern.
  • Das DFKI, das Deutsche Forschungszentrum für Künstliche Intelligenz, nutzt die DGX Station, um Modelle zu erstellen, die kritische Herausforderungen für Gesellschaft und Industrie bewältigen, einschließlich Computer-Vision-Systeme, mit denen Rettungsdienste schnell auf Naturkatastrophen reagieren können.
  • Lockheed Martin verwendet DGX Station, um KI-Modelle zu entwickeln, die Sensordaten und Serviceprotokolle verwenden, um den Wartungsbedarf vorherzusagen, um die Fertigungsverfügbarkeit zu verbessern, die Sicherheit für die Mitarbeiter zu erhöhen und die Betriebskosten zu senken.
  • NTT Docomo, Japans führender Mobilfunkbetreiber mit über 79 Millionen Abonnenten, nutzt DGX Station, um innovative AI-gesteuerte Dienste wie die Bilderkennungslösung zu entwickeln.
  • Das Pacific Northwest National Laboratory nutzt NVIDIA DGX-Stationen, um von der Bundesregierung finanzierte Forschung zur Unterstützung der nationalen Sicherheit durchzuführen. PNNL konzentriert sich auf technologische Innovationen in Bezug auf Energieresilienz und nationale Sicherheit und ist ein führendes US-amerikanisches HPC-Zentrum für wissenschaftliche Entdeckungen, Energieresilienz, Chemie, Geowissenschaften und Datenanalyse.

NVIDIA DGX Station 320G Systemspezifikationen

Gemäß den Spezifikationen wird die NVIDIA DGX Station 320G von insgesamt vier A100 Tensor Core-GPUs angetrieben. Dies sind nicht nur irgendwelche A100-GPUs, da NVIDIA die ursprünglichen Spezifikationen aktualisiert hat und doppelt so viel Speicherplatz bietet.

NVIDIA bringt zwei brandneue Ampere-Tensor-Core-GPUs auf den Markt: A10 24 GB GDDR6 und A30 24 GB HBM2 für das Rechenzentrum

Die NVIDIA A100 Tensor Core-GPUs in der DGX Station A100 sind mit 80 GB HBM2e-Speicher ausgestattet, was der doppelten Speichergröße des ursprünglichen A100 entspricht. Dies bedeutet, dass die DGX Station über insgesamt 320 GB verfügbare Gesamtkapazität verfügt und gleichzeitig die Unterstützung für MIG (Multi-Instance GPU-Protokoll) und NVLink der 3. Generation vollständig unterstützt. Sie bietet eine bidirektionale Bandbreite von 200 GB / s zwischen einem beliebigen GPU-Paar und eine dreimal schnellere Verbindung Geschwindigkeiten als PCIe Gen 4. Die restlichen Spezifikationen für die A100 Tensor Core-GPUs bleiben unverändert.

Das System selbst enthält eine AMD EPYC Rome 7742 64 Core-CPU mit vollständiger PCIe Gen 4-Unterstützung, bis zu 512 GB dediziertem Systemspeicher, 1,92 TB NVME M.2 SSD-Speicher für das Betriebssystem und bis zu 7,68 TB NVME U.2 SSD-Speicher für Datencache. Für die Konnektivität verfügt das System über 2x 10-GbE-LAN-Controller, einen einzelnen 1-GbE-LAN-Port für die Fernverwaltung. Die Displayausgabe erfolgt über eine diskrete DGX-Displayadapterkarte, die 4 DisplayPort-Ausgänge mit Unterstützung für eine Auflösung von bis zu 4K bietet. Der AIC verfügt über eine eigene aktive Kühllösung.

In der DGX Station 320G befinden sich die A100-GPUs auf der Rückseite des Gehäuses. Alle vier GPUs und die CPU werden durch ein flüsterleises und wartungsfreies Kältemittelkühlsystem ergänzt. Der Kompressor für den Kühler befindet sich im DGX-Chassis. Das gesamte System wird von einem 1500-W-Netzteil gespeist und der Kühler arbeitet mit leisen 37 dB.

NVIDIA DGX Station A100 Systemleistung

Was die Leistung betrifft, liefert die DGX Station A100 2,5 Petaflops KI-Trainingsleistung und 5 PetaOPS INT8-Inferenzleistung. Die DGX Station A100 ist auch die einzige Workstation ihrer Art, die das MIG-Protokoll (Multi-Instance GPU) unterstützt, sodass Benutzer einzelne GPUs aufteilen können, sodass gleichzeitige Workloads schneller und effizienter ausgeführt werden können.

Gegenüber der ursprünglichen DGX-Station bietet die neue Version eine 3,17-fache Steigerung der Trainingsleistung, eine 4,35-fache Steigerung der Inferenzleistung und eine 1,85-fache Steigerung der HPC-orientierten Workloads. NVIDIA hat außerdem sein DGX A100-System auf 80 GB A100 Tensor Core-GPUs aktualisiert. Dadurch kann NVIDIA eine dreimal schnellere Trainingsleistung gegenüber dem Standard-DGX A100-System mit 320 GB, eine 25% schnellere Inferenzleistung und eine zweimal schnellere Datenanalyseleistung erzielen.

Fortschrittliche KI mit DGX SuperPOD
DGX SuperPODs sind AI-Supercomputer mit 20 oder mehr NVIDIA DGX A100 Systeme und NVIDIA InfiniBand HDR-Netzwerk. Zu den neuesten, die DGX SuperPODs für die Stromversorgung neuer KI-Lösungen und -Dienste bereitstellen, gehören:

  • Sony Group Corporation nutzt DGX SuperPOD, um seinem Forschungs- und Entwicklungsteam die Möglichkeit zu geben, KI im gesamten Unternehmen zu verbreiten.
  • NAVER, ein führendes Internet-Technologieunternehmen in Korea und Japan, trainiert riesige KI-Sprachmodelle in großem Maßstab auf DGX SuperPOD, um Pionierarbeit für neue Dienste in den Bereichen E-Commerce, Suche, Unterhaltung und Zahlungsanwendungen zu leisten.
  • RekursionDas Unternehmen für digitale Biologie, das an der Industrialisierung der Wirkstoffforschung arbeitet, nutzt DGX SuperPOD, um seine Deep-Learning-Modelle zu beschleunigen und die wachsende Zahl von Experten für maschinelles Lernen zu stärken.
  • MTSRusslands größtes Telekommunikationsunternehmen nutzt seinen DGX SuperPOD als Grundlage für seine AI-fähige Entwicklungsinfrastruktur und neue Angebote für öffentliche Cloud-Dienste sowie für die abteilungsübergreifende Integration von AI und Data Science.
  • VinAI nutzt seinen DGX SuperPOD, der als Vietnams schnellster KI-Supercomputer gelten wird, um KI-Initiativen, einschließlich autonomer Fahrzeuge, Gesundheitswesen und Verbraucherdienste, in Südostasien und auf der ganzen Welt zu beschleunigen.

Verfügbarkeit des NVIDIA DGX Station 320G-Systems

Die NVIDIA DGX Station 320G wird später in diesem Jahr zu einem Preis von 149.000 USD oder einem monatlichen Abonnement von 9.000 USD pro Monat erhältlich sein. Cloud-native NVIDIA DGX SuperPODs mit mehreren Mandanten werden im zweiten Quartal über die globalen Partner von NVIDIA erhältlich sein, die qualifizierten Kunden auf Anfrage Preise anbieten können. NVIDIA Base Command wird ab Q2 ebenfalls verfügbar sein.

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Schaltfläche "Zurück zum Anfang"