Die beste Beschleunigung für Ihr Rechenzentrum

Die NVIDIA A100 Tensor Core-GPU dient mit einer nie dagewesenen Beschleunigung als Grundlage für die leistungsstärksten elastischen Rechenzentren in den Bereichen KI, Datenanalyse und HPC.

Nutzen Sie die neueste NVIDIA Ampere-Architektur mit einer bis zu 20-mal höheren Leistung gegenüber Vorgängergenerationen. A100 ist in Versionen mit 40 GB und 80 GB Arbeitsspeicher erhältlich.

NVIDIA A100 Tensor Core-GPU Image

Sie haben Fragen?

Falls Sie mehr zu diesem Thema erfahren möchten, freuen wir uns über Ihre Kontaktaufnahme.

 

Zum Kontaktformular

Für alle Workloads geeignet

A100 Tensor Core GPU AI Training Performance

Deep Learning Training

Die Komplexität von KI-Modellen steigt rapide - somit auch der Anspruch an Rechenleistung.
Die Tensor Cores NVIDIA A100 mit Tensor Float (TF32)-Präzision bieten bis zu 20-mal mehr Leistung gegenüber NVIDIA Volta, erfordern dafür keine Code-Änderungen und bieten einen zusätzlichen 2-fachen Boost mit automatischer gemischter Präzision und FP16. Bei den größten Modelle mit massiven Datentabellen wie Deep Learning-Empfehlungsmodellen (DLRM) erreicht die A100 80 GB bis zu 1,3 TB vereinheitlichten Arbeitsspeicher pro Knoten und bietet bis zu 3-mal mehr Durchsatz als die A100 40 GB.

Inferenz für Deep Learning

Mit der A100 werden bahnbrechende Funktionen zur Optimierung von Inferenzworkloads eingeführt. Durch die Mehr-Instanzen-Grafikprozessor-Technologie (MIG) können mehrere Netzwerke gleichzeitig auf einer einzelnen A100-GPU ausgeführt werden, um die Rechenressourcen optimal zu nutzen. Zusätzlich zu den anderen Inferenzleistungssteigerungen der A100 bietet die strukturelle geringe Dichte bis zu 2-mal mehr Leistung.

A100 Tensor Core GPU HPC Performance

High-Performance Computing

Spitzenleistung für die Simulationen und Entdeckungen von morgen.
NVIDIA A100 führt Tensor Cores mit doppelter Präzision ein und stellt somit den größten Leistungssprung für HPC seit der Einführung von GPUs dar. In Kombination mit 80 GB des schnellsten Grafikspeichers können Forscher eine vormals 10-stündige, Simulation auf A100 mit doppelter Präzision auf weniger als vier Stunden verkürzen.

Leistungsstarke Datenanalyse

Das analysieren und visualisieren von Datensätzen kann durch bisherige Skalierungslösungen, die auf mehreren Servern aufbauen, ausgebremst werden. Die mit A100 beschleunigten Server liefern die nötige Rechenleistung in Form von Arbeitsspeicher, Speicherbandbreite und weiterer Skalierbarkeit. In einem großen Datenanalyse-Benchmark erzielte die A100 80 GB mit 83-mal höherem Durchsatz Erkenntnisse als CPUs und 2-fach höhere Leistung als die A100 40 GB, womit sie ideal für zunehmende Workloads mit stetig wachsenden Datensätzen ist.

Ihre Vorteile

Unschlagbare Beschleunigung

 

Die GPU mit der höchsten Speicherbandbreite der Welt, um auch die größten Modelle und Datensätze zu bewältigen

 

  

Individuelle Skalierbarkeit

 

A100 lässt sich in sieben Grafikprozessorinstanzen partitionieren, um sich dynamisch an veränderliche Anforderungen anzupassen

 

  

Solide Grundlage

 

Die A100 Tensor Core GPU dient weltweit als Grundbaustein für elastische und moderne Rechenzentren

 

  

Sie haben Fragen?

Falls Sie mehr zu diesem Thema erfahren möchten, freue ich mich über Ihre Kontaktaufnahme.

Zum Kontaktformular
Karsten Johannes
Karsten Johannsen
Partner Manager