Nvidia bringt die bisher leistungsstärkste KI-Hardware der Welt auf den Markt

Nvidia bringt die bisher leistungsstärkste KI-Hardware der Welt auf den Markt

Nvidia stellte auf der GTC XNUMX seinen neuen Grace-CPU-Chip vor, der für Hochleistungsrechnen und Infrastruktur für künstliche Intelligenz entwickelt wurde.

Der neue 2-Kern-Prozessor für intelligente Rechenzentren auf Basis von Arm Neoverse besteht eigentlich aus zwei CPU-Chips, die über die Hochgeschwindigkeits-Chip-zu-Chip-Verbindung (CXNUMXC) des Unternehmens mit geringer Latenz, NVLink, verbunden sind.

Nvidias Grace CPU Superchip ergänzt den im letzten Jahr angekündigten Grace Hopper Superchip und vereint CPU und GPU auf einem Mainboard. Obwohl ihre Zusammensetzung unterschiedlich sein kann, teilen sich die beiden Superchips genau die gleiche latente CPU-Architektur, wie zum Beispiel die NVLink-CNC-Verbindung.

Nvidia-Erfinder und CEO Jensen Huang erklärte in einer Pressemitteilung, wie ideal der Grace CPU Superchip für KI-Workloads ist:

„Eine neue Art von Rechenzentren ist entstanden: KI-Fabriken, die Datenberge verarbeiten und veredeln, um Intelligenz zu generieren. Grace CPU Superchip bietet die beste Leistung, Speicherbandbreite und NVIDIA-Softwareplattformen auf einem Chip und wird als CPU der globalen KI-Infrastruktur glänzen.

NVIDIA H100

(Bildnachweis: Nvidia)

Nvidia H100 und DGX H100

Um die nächste Welle von KI-Rechenzentren voranzutreiben, kündigte Nvidia außerdem seine beschleunigte Computing-Plattform der nächsten Generation mit der Nvidia Hoppper-Architektur an, die die Nachfolge der vor einiger Zeit eingeführten Nvidia Ampere-Architektur des Unternehmens antritt. one by años.

Der Chiphersteller kündigte sogar seine erste Hopper-basierte GPU mit achtzig Milliarden Transistoren an. Der Nvidia H100 ist der bisher größte und leistungsstärkste Beschleuniger der Welt und verfügt wie der Grace-CPU-Superchip auch über eine NVLink-Verbindung, um riesige KI-Sprachmodelle, Systemempfehlungen, Genomik und komplexe digitale Zwillinge voranzutreiben.

Für Unternehmen, die noch mehr Leistung wünschen, verfügt Nvidias DGX H100 (das DGX-System der vierten Generation) über 8 H100-GPUs und kann mit der neuen FP8-Präzision 100 Petaflops KI-Leistung liefern. Dies bietet den genauen Maßstab, um den enormen Rechenanforderungen großer Sprachmodelle, Empfehlungssysteme, Gesundheitsforschung und Zeitwissenschaft gerecht zu werden. Es ist zu beachten, dass jede einzelne GPU in Nvidias DGX-HXNUMX-Systemen über NVLink verbunden ist, um eine Konnektivität von XNUMX GB/s zu ermöglichen.

Die neue Hopper-Architektur des Unternehmens hat bereits umfangreiche Branchenunterstützung von großen Cloud-Computing-Anbietern erhalten und Alibaba Cloud, AWS, Baidu AI Cloud, Google Cloud, Microsoft Azure, Oracle Cloud und Tencent Cloud planen, Instanzen auf Basis von H100 anzubieten. Gleichzeitig planen Cisco, Dell Technologies, HPE, Inspur, Lenovo und andere Systemanbieter die Veröffentlichung von Servern mit H100-Beschleunigern.

Die H100-GPU von Nvidia wird voraussichtlich noch in diesem Jahr weltweit über Cloud-Anbieter, PC-Hersteller und direkt vom Unternehmen selbst erhältlich sein.