United States Brazil Russia France Germany China Korea Japan

Artificial Intelligence driven Marketing Communications

 
May 15, 2020 1:20 AM ET

Nvidias erste Ampere GPU ist für Rechenzentren und KI konzipiert, nicht für Ihren PC


iCrowd Newswire - May 15, 2020

Nvidia stellt heute seine Ampere GPU-Architektur der nächsten Generation vor. Die erste GPU, die Ampere verwendet, ist Nvidias neuer A100, der für wissenschaftliches Computing, Cloud-Grafiken und Datenanalyse entwickelt wurde. Während es viele Gerüchte um Nvidias Ampere-Pläne für GeForce “RTX 3080”-Karten gegeben hat, wird der A100 vor allem in Rechenzentren zum Einsatz kommt.

Nvidias neuester Rechenzentrumsschub kommt inmitten einer Pandemie und einer enormen steigenden Nachfrage nach Cloud Computing. Nvidia-Chef Jensen Huang bezeichnete die Coronavirus-Situation in einem Pressebriefing, an dem The Verge teilnahm, als “schrecklich tragisch”. “Diese Dynamik ist wirklich ziemlich gut für unser Rechenzentrumgeschäft … Ich gehe davon aus, dass Ampere bemerkenswert gut absteigen wird. Es ist unsere beste RechenzentrumGPU, die jemals hergestellt wurde, und sie profitiert von fast einem Jahrzehnt unserer Rechenzentrumserfahrung.”

Der A100 verfügt über mehr als 54 Milliarden Transistoren und ist damit der weltweit größte 7nm-Prozessor. “Das ist im Grunde fast an den theoretischen Grenzen dessen, was heute in der Halbleiterfertigung möglich ist”, erklärt Huang. “Diegrößte Die, die die Welt je gemacht hat, und die größte Anzahl von Transistoren in einer Rechenmaschine, die die Welt je gemacht hat.”

Nvidia steigert seine Tensor-Kerne, um sie für Entwickler einfacher zu verwenden, und der A100 wird auch 19,5 Teraflops FP32-Leistung, 6.912 CUDA-Kerne, 40 GB Speicher und 1,6 TB/s Speicherbandbreite enthalten. All diese Leistung geht nicht in die Stromversorgung der neuesten Version von Assassin es Creed, obwohl.

Stattdessen kombiniert Nvidia diese GPUs zu einem gestapelten KI-System, das seine Supercomputer in Rechenzentren auf der ganzen Welt mit Strom versorgt. Ähnlich wie Nvidia seine bisherige Volta-Architektur zur Herstellung der Tesla V100- und DGX-Systeme nutzte, vereint ein neues DGX A100 AI-System acht dieser A100-GPUs zu einer einzigen riesigen GPU.

Das DGX A100-System verspricht dank dieser acht A100 5 Petaflops Leistung und wird mit Nvidias NVLink-Version der dritten Generation kombiniert. Die Kombination dieser acht GPUs bedeutet, dass es 320 GB GPU-Speicher mit 12,4 TB/s Speicherbandbreite gibt. Nvidia enthält auch 15 TB internen Gen4 NVMe-Speicher, um KI-Schulungsaufgaben zu unterstützen. Forscher und Wissenschaftler, die die DGX A100-Systeme verwenden, werden sogar in der Lage sein, Workloads in bis zu 56 Instanzen aufzuteilen und kleinere Aufgaben auf die leistungsstarken GPUs zu verteilen.

Nvidias kürzliche Übernahme von Mellanox, einem Anbieter von Servernetzwerken im Wert von 6,9 Milliarden US-Dollar, kommt ebenfalls ins Spiel, da die DGX A100 neun 200-Gb/s-Netzwerkschnittstellen für insgesamt 3,6 Tb/s pro Sekunde bidirektionaler Bandbreite umfasst. Da sich moderne Rechenzentren an immer vielfältigere Workloads anpassen, wird sich die Technologie von Mellanox für Nvidia als immer wichtiger erweisen. Huang beschreibt Mellanox als das alles wichtige “Verbindungsgewebe” in der nächsten Generation von Rechenzentren.

“Wenn man sich die Architektur moderner Rechenzentren anschaut, sind die Workloads, die sie zu erledigen haben, vielfältiger denn je”, erklärt Huang. “Unser Ansatz in der Zukunft besteht nicht nur darin, uns auf den Server selbst zu konzentrieren, sondern über das gesamte Rechenzentrum als Recheneinheit nachzudenken. Ich glaube, dass die Welt in Zukunft über Rechenzentren als Recheneinheit nachdenken wird, und wir werden über Dasdatenzentren-Computing nachdenken. Nicht mehr nur PCs oder Server, sondern wir werden auf der Rechenzentrumsskala arbeiten.”

Bild: Nvidia
Inside Nvidia s DGX A100 System.

Die DGX A100-Systeme von Nvidia haben bereits mit dem Versand begonnen, wobei einige der ersten Anwendungen, darunter die Erforschung von COVID-19, am US Argonne National Laboratory durchgeführt wurden.

“Wir setzen Amerikas leistungsstärkste Supercomputer im Kampf gegen COVID-19 ein, führen KI-Modelle und Simulationen auf der neuesten verfügbaren Technologie aus, wie die NVIDIA DGX A100”, sagt Rick Stevens, Associate Laboratory Director für Computing, Environment and Life Sciences bei Argonne. “Die Rechenleistung der neuen DGX A100-Systeme, die nach Argonne kommen, wird Forschern helfen, Behandlungen und Impfstoffe zu erforschen und die Ausbreitung des Virus zu untersuchen, sodass Wissenschaftler in Monaten oder Tagen eine jahrelange KI-beschleunigte Arbeit leisten können.”

Nvidia sagt, dass Microsoft, Amazon, Google, Dell, Alibaba und viele andere große Cloud-Dienstanbieter auch planen, die einzelnen A100-GPUs in ihre eigenen Angebote zu integrieren. “Die Akzeptanz und begeisterungslos für Ampere von allen Hyperskaliern und Computerherstellern auf der ganzen Welt ist wirklich beispiellos”, sagt Huang. “Dies ist der schnellste Start einer neuen Rechenzentrumsarchitektur, die wir je hatten, und es ist verständlich.”

Ähnlich wie das größere DGX A100-Clustersystem ermöglicht Nvidia auch die Partitionierung jeder einzelnen A100-GPU in bis zu sieben unabhängige Instanzen für kleinere Rechenaufgaben. Diese Systeme werden jedoch nicht billig sein. Nvidias DGX A100 kommt mit großen Leistungsversprechen, aber Systeme beginnen bei 199.000 DOLLAR für eine Kombination von acht dieser A100-Chips.

Foto: Stefan Etienne / The VergeNvidia es
GeForce RTX 2080 Grafikkarte.

Es ist noch nicht klar, wie Nvidia Ampere direkt in Verbraucher-GPUs voranbringen wird. Nvidia stellte seine Volta-Architektur mit dedizierten Prozessoren für künstliche Intelligenz (Tensorkerne) auf die gleiche Weise vor wie die heutige Ampere-Enthüllung. Aber Volta hat die GeForce-Verbraucherprodukte von Nvidia nicht mit Strom versorgt. Stattdessen lancierte Nvidia eine Mit Spannung angetriebene Titan V (die es als “die leistungsstärkste PC-GPU aller Zeiten” bezeichnete) und konzentrierte sich auf KI und wissenschaftliche Simulationsverarbeitung, nicht auf Spiele oder kreative Aufgaben.

Trotz Gerüchten über Volta, die zukünftige GeForce-Karten antreiben, führte Nvidia 2018 seine Turing-Architektur ein, die seine dedizierten Tensorkerne mit neuen Raytracing-Funktionen kombinierte. Turing ging auf Power-Karten wie die RTX 2080instead von Volta, nur wenige Wochen, nachdem Huang sagte, die nächste Linie von Grafikkarten würde nicht für “eine lange Zeit” starten. Nvidia hat sogar die RT- und Tensor-Kerne für Turing-betriebene Karten wie die GTX 1660 Ti ausgezogen.

Neue “RTX 3080” Karten könnten dann nur noch wenige Monate entfernt sein, aber wir wissen immer noch nicht sicher, ob sie diese neue Ampere-Architektur verwenden werden. “Es gibt große Überschneidungen in der Architektur, das ist ohne Zweifel”, deutete Huang an. “Die Konfiguration, die Dimensionierung der verschiedenen Elemente des Chips ist sehr unterschiedlich.”

Nvidia verwendet HBM-Speicher für seine Rechenzentrums-GPUs, und das ist nicht etwas, was das Unternehmen für CONSUMER-PC-Gaming-GPUs verwendet. Die GpUs von Rechenzentren konzentrieren sich ebenfalls viel stärker auf KI-Aufgaben und Rechenaufgaben als Aufgraphiken. “Wir werden viel stärker auf Grafiken und weniger auf den Gleitkommawert mit doppelter Genauigkeit ausgerichtet sein”, fügt Huang hinzu.

Die Spekulationen um Nvidias Ampere-Pläne haben sich in letzter Zeit intensiviert, und da die PlayStation 5 und Xbox Series X noch in diesem Jahr mit AMD-betriebenen GPU-Lösungen auf den Markt kommen wird, wird Nvidia sicherlich noch in diesem Jahr etwas Neues bieten müssen.

Contact Information:

Tom Warren



Tags:    German, United States, Wire