header-logo

Künstliche Intelligenz getriebene Marketingkommunikation

iCrowdnewswire German

Nvidia beginnt mit dem Versand der A100, der ersten Ampere-basierten Rechenzentrums-GPU

May 18, 2020 2:49 AM ET

2555435ebb0b0b549420.45298401-Argonne National Laboratory Installs NVIDIA DGX A100 – Image courtesy Argonne National Laboratory

Nvidia gab heute bekannt, dass seine NVIDIA A100, die erste seiner GPUs basierend auf seiner Ampere-Architektur, jetzt in voller Produktion ist und mit dem Versand an Kunden weltweit begonnen hat. Ampere ist ein großer Generationssprung in Nvidias GPU-Architekturdesign und bietet, wie das Unternehmen sagt, den “größten Leistungssprung bisher” über alle acht Generationen seiner Grafikhardware hinweg.

Insbesondere kann der A100 die Leistung bei KI-Schulungen und -Rückschlüssen im Vergleich zu früheren NVIDIA-Rechenzentrums-GPUs um das 20-fache verbessern und bietet Vorteile für fast jede Art von GPU-intensiven Rechenzentrums-Workloads, einschließlich Datenanalyse, Proteinmodellierung und anderen wissenschaftlichen Computing-Anwendungen und Cloud-basiertem Grafik-Rendering.

Die A100 GPU kann auch je nach Bedarf nach oben oder unten skaliert werden, was bedeutet, dass Sie eine einzelne Einheit verwenden können, um bis zu sieben separate Aufgaben mit Partitionierung zu bewältigen, und Sie können sie kombinieren, um als eine große, virtuelle GPU zusammenzuarbeiten, um die härtesten Trainingsaufgaben für KI-Anwendungen zu bewältigen. Die Partitionierungsfunktion “Multi-Instanz GPU” ist insbesondere für diese Generation neu und trägt wirklich dazu bei, die Fähigkeit des A100 zu betonen, den größtmöglichen Kostenwert für Kunden aller Größen zu bieten, da man theoretisch bis zu sieben diskrete GPUs in einem Rechenzentrum ersetzen könnte, wenn Sie bereits feststellen, dass Sie einen gewissen Spielraum für Ihre Nutzungsbedürfnisse haben.

Neben der Ankündigung der Produktion und des Versands kündigt Nvidia auch an, dass eine Reihe von Kunden bereits den A100 für den Einsatz in ihren Supercomputern und Rechenzentren einsetzen, darunter Microsoft Azure, Amazon Web Services, Google Cloud und fast jeden wichtigen Cloud-Anbieter, der existiert.

Nvidia kündigte auch das DGX A100-System an, das acht der A100-GPUs kombiniert, die über Nvidias NVLink miteinander verbunden sind. Das ist auch direkt bei Nvidia und bei seinen zugelassenen Wiederverkaufspartnern erhältlich.


Keywords:  afds, afdsafds

Tags:  German, United States, Wire