Nachrichten

NVIDIA bringt zwei brandneue Ampere-Tensor-Core-GPUs auf den Markt: A10 24 GB GDDR6 und A30 24 GB HBM2 für das Rechenzentrum

Neben allen CPU- und GPU-Ankündigungen gibt es auch NVIDIA Starten Heute sind es brandneue Ampere-basierte A10- und A30-Tensor-Core-GPUs. Die beiden GPUs richten sich an Rechenzentren und sind hauptsächlich auf Virtualisierungsplattformen ausgerichtet.

NVIDIA Ampere A10 24 GB GDDR6 & A30 24 GB HBM2 Tensor Core-CPUs gestartet

Das Interessante an diesen brandneuen Tensor Core-GPUs sind ihre Spezifikationen. Der A10 verwendet die GA102-GPU, während der A30 die GA100-GPU verwendet. Während beide Ampere-basiert sein werden, wird das Speichersubsystem für beide GPUs sehr unterschiedlich sein, wobei der A10 GDDR6 und der A30 den Standard-HBM2-Speicherstandard für Rechenzentren bieten. Schauen wir uns also die technischen Daten genauer an.

NVIDIA bringt die RTX A5000-, A4000-, A3000- und A2000-Ampere-Workstation-Grafikkarten auf Desktops und Laptops

NVIDIA A10 Ampere Tensor Core GPU

Die NVIDIA A10 Tensor Core GPU wird von der GA102-890 SKU angetrieben. Es verfügt über 72 SMs für insgesamt 9216 CUDA-Kerne. Die GPU arbeitet mit einem Basistakt von 885 MHz und steigert bis zu 1695 MHz. Es verfügt über PCIe Gen 4.0-Konformität und in Bezug auf den Speicher verfügt die GPU über einen 24 GB GDDR6-VRAM, der über eine 384 Bit breite Busschnittstelle mit 12,5 Gbit / s arbeitet. Die GPU bietet eine Bandbreite von 600 GB / s.

Für das Design der Karte wird ein goldfarbenes Champagner-Leichentuch verwendet, das in einem Formfaktor mit einem Steckplatz und voller Länge geliefert wird. Da es sich um eine passiv gekühlte Karte handelt, ist kein Lüfter vorhanden und die Stromversorgung erfolgt über einen einzelnen 8-poligen Anschluss, wobei die Karte über einen einzelnen 8-poligen Anschluss verläuft, um den 150-W-TDP-Bedarf zu decken. In Bezug auf die Leistung bietet die NVIDIA A10 Tensor Core-GPU bis zu 31,2 TF FP32, 62,5 TF TF32, 125 TF BFLOAT16, 250 TOPS INT8, 500 TOPS INT4 und die doppelte Rate bei geringer Dichte.

NVIDIA A30 Ampere Tensor Core GPU

NVIDIA Atlan SOC mit ARM-basierten Grace-CPU- und Ampere-Next-GPU-Kernen der nächsten Generation vorgestellt

Die NVIDIA A30 Tensor Core GPU verwendet dagegen eine GA100 SKU, die genaue Variante ist jedoch nicht bekannt. Es scheint eine eher reduzierte Variante zu sein, die einen Basistakt von 930 MHz und einen Boost-Takt von bis zu 1440 MHz aufweist. Die GPU ist mit 24 GB HBM2-VRAM ausgestattet, der mit einer Geschwindigkeit von 1215 MHz über eine 3072 Bit breite Busschnittstelle arbeitet. Dies bedeutet, dass wir nur drei aktive HBM2-Speicherstapel betrachten. Die Stacks bieten eine Speicherbandbreite von bis zu 933 GB / s.

Im Gegensatz zum A10 verfügt die NVIDIA A30 Tensor Core-GPU über ein Design mit zwei Steckplätzen und voller Länge. Es wird ebenfalls von einem einzelnen 8-poligen Stecker gespeist, hat jedoch eine höhere TDP von 165 W. In Bezug auf die Leistung bietet die NVIDIA A30 Tensor Core-GPU bis zu 5,2 TF FP64, 10,3 TF Peak FP64TF, 10,3 TF FP32, 82 TF TF32, 165 TF BFLOAT16, 330 TOPS INT8, 661 TOPS INT4 und die doppelte Rate bei geringer Dichte.

NVIDIA Tensor Core Ampere GPUs
A10A30
GPUGA102-890GA100
FP64– –5.2 teraFLOPS
FP64 Tensorkern– –10,3 teraFLOPS
FP3231,2 teraFLOPS10,3 teraFLOPS
TF32 Tensorkern62,5 teraFLOPS | 125 teraFLOPS *82 teraFLOPS | 165 teraFLOPS *
BFLOAT16 Tensorkern125 teraFLOPS | 250 teraFLOPS *165 teraFLOPS | 330 teraFLOPS *
FP16 Tensorkern125 teraFLOPS | 250 teraFLOPS *165 teraFLOPS | 330 teraFLOPS *
INT8 Tensorkern250 TOPS | 500 TOPS *330 TOPS | 661 TOPS *
INT4 Tensorkern500 TOPS | 1.000 TOPS *661 TOPS | 1321 TOPS *
RT Core72 RT-Kerne– –
Verschlüsseln entschlüsseln1 Encoder
2 Decoder (+ AV1 Decodierer)
1 optischer Flussbeschleuniger (OFA)
1 JPEG-Decoder (NVJPEG)
4 Videodecoder (NVDEC)
GPU-Speicher24 GB GDDR624 GB HBM2
GPU-Speicherbandbreite600 GB / s933 GB / s
VerbindenPCIe Gen4 64 GB / sPCIe Gen4: 64 GB / s
NVLINK der dritten Generation: 200 GB / s **
FormfaktorenEinzelplatz, volle Höhe, volle Länge (FHFL)Dual-Slot, volle Höhe, volle Länge (FHFL)
Maximale thermische Auslegungsleistung (TDP)150W165W
Multi-Instance-GPU (MIG)– –4 GPU-Instanzen mit jeweils 6 GB
2 GPU-Instanzen mit jeweils 12 GB
1 GPU-Instanz bei 24 GB
Unterstützung der vGPU-SoftwareNVIDIA Virtual PC, NVIDIA Virtual Applications, NVIDIA RTX Virtual
Workstation, NVIDIA Virtual Compute Server
NVIDIA AI Enterprise für VMware
NVIDIA Virtual Compute Server

Die brandneuen GPU-Server von Inspur unterstützen A30, A10 und A100

NF5468M6: Ultra-flexibel für AI-Workloads, unterstützt 2x Intel Xeon Scalable-Prozessor der 3. Generation und 8x NVIDIA A100 / A40 / A30-GPUs, 16x NVIDIA A10-GPUs oder 20x NVIDIA T4-GPUs; unterstützt bis zu 12x 3,5-Zoll-Festplatten für großen lokalen Speicher in einem 4U-Gehäuse; Passt sich flexibel an die neuesten KI-Beschleuniger und intelligenten Netzwerkkarten an und hat die einzigartige Funktion, Topologien mit einem Klick für verschiedene KI-Anwendungen zu wechseln, einschließlich KI-Cloud, IVA (Intelligent Video Analysis), Videoverarbeitung usw.

NF5468A5: vielseitiger AI-Server mit 2x AMD Rome / Milan-CPUs und 8x NVIDIA A100 / A40 / A30-GPUs; Das N + N-Redundanzdesign ermöglicht 8x 350W AI-Beschleuniger im Vollgeschwindigkeitsbetrieb für überlegene Zuverlässigkeit. Das nicht blockierende Design von CPU zu GPU ermöglicht die Verbindung ohne die PCIe-Switch-Kommunikation, wodurch eine schnellere Berechnungseffizienz erzielt wird.

NF5280M6: Speziell für alle Szenarien entwickelt, mit 2x Intel Xeon Scalable-Prozessor der 3. Generation und 4x NVIDIA A100 / A40 / A30 / A10-GPUs oder 8x NVIDIA T4-Tensor-Core-GPUs in 2U-Chassis, die für einen langfristig stabilen Betrieb bei 45 ° C geeignet sind. Der NF5280M6 ist mit der neuesten PFR / SGX-Technologie und einem vertrauenswürdigen Sicherheitsmodul ausgestattet, das für anspruchsvolle KI-Anwendungen geeignet ist.

Außerdem gab Inspur bekannt, dass die brandneuen Inspur M6 AI-Server NVIDIA Bluefield-2-DPUs vollständig unterstützen. In Zukunft plant Inspur die Integration von NVIDIA Bluefield-2-DPUs in seine AI-Server der nächsten Generation, die eine schnellere und effizientere Verwaltung von Benutzern und Clustern sowie einen miteinander verbundenen Datenzugriff für Szenarien wie AI, Big Data-Analyse und Cloud Computing ermöglichen und Virtualisierung.

Verfügbarkeit

Mehr als 20 NVIDIA-zertifizierte Systeme sind ab sofort von weltweiten Computerherstellern erhältlich. NVIDIA-zertifizierte Systeme mit NVIDIA A30- und NVIDIA A10-GPUs werden später in diesem Jahr von den Herstellern erhältlich sein.

NVIDIA AI Enterprise ist als unbefristete Lizenz für 3.595 USD pro CPU-Sockel erhältlich. Der Enterprise Business Standard-Support für NVIDIA AI Enterprise beträgt 899 USD pro Lizenz. Kunden können einen frühen Zugriff auf NVIDIA AI Enterprise beantragen, wenn sie ihre Upgrades auf VMware vSphere 7 Update 2 planen.

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Schaltfläche "Zurück zum Anfang"