Nvidia stellte auf der GTC XNUMX seinen neuen Grace-CPU-Chip vor, der für High-Performance-Computing und Infrastruktur für künstliche Intelligenz entwickelt wurde.

Der neue 2-Core Arm Neoverse-basierte umsichtige Rechenzentrumsprozessor besteht eigentlich aus zwei CPU-Chips, die über die Hochgeschwindigkeits-Chip-zu-Chip-Verbindung (CXNUMXC) des Unternehmens mit niedriger Latenz, NVLink, verbunden sind.

Nvidias Grace CPU Superchip ergänzt den im letzten Jahr angekündigten Grace Hopper Superchip und beinhaltet CPU und GPU auf einem Mainboard. Obwohl ihr Aufbau unterschiedlich sein mag, teilen sich die beiden Superchips genau dieselbe zugrunde liegende CPU-Architektur, wie z. B. die NVLink-CNC-Verbindung.

Nvidia-Schöpfer und CEO Jensen Huang erklärte in einer Pressemitteilung, warum der Grace-CPU-Superchip ideal für KI-Workloads ist, und sagte:

„Eine neue Art von Rechenzentren ist entstanden: KI-Fabriken, die Berge von Daten verarbeiten und veredeln, um Intelligenz zu generieren. Grace CPU Superchip bietet die beste Leistung, Speicherbandbreite und NVIDIA-Softwareplattformen auf einem Chip und wird als CPU der globalen KI-Infrastruktur glänzen.

(Bildnachweis: Nvidia)

Nvidia H100 und DGX H100

Dans le but de propelling the prochaine vague de centres de données d'IA, Nvidia a également annoncé sa plate-forme informatique accélérée de nouvelle generation avec l'architecture Nvidia Hoppper que sucède à l'architecture Nvidia Ampere of the société lancée il ya un Paar Jahren.

Der Chiphersteller kündigte sogar seine erste Hopper-basierte GPU mit achtzig Milliarden Transistoren an. Der Nvidia H100 ist der bisher größte und leistungsstärkste Beschleuniger der Welt und verfügt wie der Grace-CPU-Superchip auch über eine NVLink-Verbindung, um massive KI-Sprachmodelle, Systemempfehlungen, Genomik und komplexe digitale Zwillinge voranzutreiben.

Für Unternehmen, die noch mehr Leistung wünschen, bietet Nvidias DGX H100 (das DGX-System der vierten Generation) 8 H100-GPUs und kann zweiunddreißig Petaflops KI-Leistung mit neuer FP8-Präzision liefern. Dies gibt den genauen Maßstab, um die massiven Rechenanforderungen großer Sprachmodelle, Empfehlungssysteme, Gesundheitsforschung und Zeitwissenschaft zu erfüllen. Es sollte beachtet werden, dass jede einzelne GPU in Nvidias DGX H100-Systemen über NVLink verbunden ist, um eine Konnektivität von XNUMX GB/s bereitzustellen.

Die neue Hopper-Architektur des Unternehmens hat bereits umfangreiche Branchenunterstützung von führenden Cloud-Computing-Anbietern erhalten, und Alibaba Cloud, AWS, Baidu AI Cloud, Google Cloud, Microsoft Azure, Oracle Cloud und Tencent Cloud planen, Cloud-basierte Instanzen anzubieten.H100. Gleichzeitig planen Cisco, Dell Technologies, HPE, Inspur, Lenovo und andere Systemhersteller die Veröffentlichung von Servern mit H100-Beschleunigern.

Die H100-GPU von Nvidia wird voraussichtlich noch in diesem Jahr weltweit über Cloud-Service-Anbieter, PC-Hersteller und direkt vom Unternehmen selbst erhältlich sein.

Teilen Sie es