Wegbereiter für Terabit-Ethernet

Wegbereiter für Terabit-Ethernet Trotz der Fortschritte in der Wi-Fi-Technologie und der jüngsten Einführung von Wi-Fi XNUMX bleibt Ethernet die bevorzugte Technologie für Unternehmen, wenn sie große Datenmengen schnell übertragen müssen, insbesondere in Rechenzentren. Obwohl die Technologie hinter Ethernet mittlerweile über vierzig Jahre alt ist, wurden im Laufe der Jahre neue Protokolle entwickelt, die den Versand von noch mehr Gigabyte an Daten ermöglichen. Um mehr über die neuesten Technologien, Protokolle, Fortschritte und die Zukunft von Gigabit-Ethernet und vielleicht bald sogar Terabit-Ethernet zu erfahren, unterhielt sich TechRadar Pro mit Tim Klein, CEO des Speicherkonnektivitätsunternehmens ATTO.

Ethernet wurde erstmals XNUMX eingeführt. Wie hat sich die Technologie seitdem entwickelt und wo passt sie in das heutige Rechenzentrum?

Mittlerweile ist die Ethernet-Technologie mehr als vier Jahrzehnte alt und hat große Fortschritte gemacht, aber es gibt auch viele Dinge, die genauso aussehen wie bei ihrer Einführung. Ursprünglich für Wissenschaftler entwickelt, um kleine Datenblöcke mit zehn Megabit pro Sekunde (Mbps) auszutauschen, sehen wir heute riesige Rechenzentren, die riesige unstrukturierte Datensätze über Ethernet-Netzwerke teilen, und eine Roadmap, die in nur wenigen Jahren Terabit-Ethernet erreichen wird. . Die exponentielle Datenentwicklung, angetrieben durch neue Formate wie digitale Bilder, erzeugte eine enorme Nachfrage, und diese frühen Implementierungen gemeinsamer Speicherung über Ethernet konnten die Leistungsanforderungen nicht erfüllen oder Überlastungen mit deterministischer Latenz bewältigen. Aus diesem Grund wurden Protokolle wie Fibre Channel speziell für die Speicherung entwickelt. Im Laufe der Jahre wurden zahlreiche Innovationen wie Smart Downloads und RDMA eingeführt, um Ethernet in die Lage zu versetzen, den Anforderungen unstrukturierter Daten gerecht zu werden und den toten Punkt zu überwinden, der bei der Übertragung großer Datenmengen entstehen kann. Die neuesten Hochgeschwindigkeits-Ethernet-Standards wie 4/10/25/40/50 GbE bilden heute das Rückgrat des modernen Rechenzentrums.

(Bildnachweis: Pixabay)

Heutige Anwendungen erfordern eine immer höhere Leistung. Was sind die Herausforderungen bei der Konfiguration schnellerer Protokolle? Kann Software hier helfen?

Anpassungen sind heutzutage aufgrund der Forderung nach höherer Leistung äußerst wichtig. Jedes System, ob Client des Dienstes oder Server, muss sich an die Anforderungen des jeweiligen Arbeitsablaufs anpassen. Die schiere Anzahl an Dateifreigabeprotokollen und Workflow-Anforderungen kann überwältigend sein. Zuvor haben Sie möglicherweise zugegeben, dass die Hälfte Ihrer Bandbreite durch Überlastung zerstört wurde, da Vorfälle und Paketverluste Ihr Tempo schwindelerregend verlangsamten. Heutzutage gibt es mehrere Methoden zur Leistungsoptimierung und Abstimmung von Ethernet-Adaptern für sehr intensive Arbeitslasten. Hardwaretreiber verfügen jetzt über integrierte Algorithmen, die die Effizienz verbessern. TCP-Offload-Engines reduzieren den Netzwerk-Stack-Overhead. Large Receive Offload (LRO) und TCP Segmentation Offload (TSO) können ebenfalls in Hardware und Software integriert werden, um die Übertragung großer Mengen unstrukturierter Daten zu erleichtern. Das Hinzufügen von Puffern, beispielsweise einer kontinuierlichen Empfangswarteschlange, beschleunigt die Paketzustellung, erhöht die Fairness und verbessert die Leistung. Neuere Technologien wie RDMA ermöglichen den direkten Speicherzugriff, indem sie den Netzwerkstapel des Betriebssystems umgehen und den Overhead praktisch eliminieren.

Was treibt die Einführung von 10/25/50/100-GbE-Schnittstellen voran?

Die Nachfrage nach größeren, effizienteren Speicherlösungen und die Begeisterung für neue Ethernet-Technologien wie RDMA und NVMe-over-Fabrics treiben die Einführung von Hochgeschwindigkeits-Ethernet in modernen Rechenzentren voran. Zehn-Gigabit-Ethernet (10GbE) ist heute die vorherrschende Verbindung für Adapter der Serverklasse, und 40GbE wurde schnell eingeführt, um durch die Bündelung von 4GbE-Verkehr auf vier Spuren neue Maßstäbe zu setzen. Daraus entwickelte sich schließlich der 10/25/50GbE-Standard, der 100 Gigabit-Lanes verwendet. Netzwerke verwenden jetzt eine Mischung aller 10/25/40/50/100-GbE-Geschwindigkeiten, mit 50 GbE im Kern und 100 GbE am Rand. Die Möglichkeit, Geschwindigkeiten zu kombinieren und anzupassen, Pfade so zu entwerfen, dass ihnen die gesamte benötigte Leistung zur Verfügung gestellt wird, und das Rechenzentrum vom Kern bis zum Rand auszubalancieren, führt zur schnellen Einführung des XNUMX/XNUMX/XNUMX-GbE-Standards. Neue Technologien wie RDMA eröffnen Unternehmen neue Möglichkeiten, Netzwerkadapter und Network-Attached Storage (NAS) mit deterministischer Latenz zu nutzen, um Arbeitslasten zu bewältigen, die zuvor von Computernetzwerken ausgeführt werden mussten. Teurerer Speicher (SAN) mit Glasfaser. Kanaladapter, die speziellere Unterstützung erfordern. In jüngerer Zeit haben wir NVMe-Over-Fabrics gesehen, das RDMA-Transport nutzt, um modernste NVMe-Technologie in einer Speicherstruktur zu teilen. XNUMX-GbE-Netzwerkkarten mit RDMA öffneten die Tür zur derzeit leistungsstärksten NVMe-Speicherstruktur auf dem Markt. Dieses bisher unvorstellbare Maß an Geschwindigkeit und Zuverlässigkeit ermöglicht es Unternehmen, mehr aus ihren Daten herauszuholen als je zuvor.

Was ist RDMA und welche Auswirkungen hat es auf die Ethernet-Technologie?

Mit Remote Direct Memory Access (RDMA) können intelligente Netzwerkadapter direkt von einem anderen System aus auf den Speicher zugreifen, ohne das herkömmliche TCP-Verfahren durchlaufen zu müssen und ohne Eingreifen der CPU. Herkömmliche Übertragungen stützten sich bei der Kommunikation auf den Netzwerkstapel des Betriebssystems (TCP/IP), was einen enormen Overhead verursachte, zu Leistungseinbußen führte und die Möglichkeiten von Ethernet und Speicher einschränkte. RDMA ermöglicht jetzt verlustfreie Übertragungen, die den Overhead praktisch eliminieren und gleichzeitig die Effizienz durch die Einsparung von CPU-Zyklen massiv steigern. Der Durchsatz wird erhöht und die Latenzzeit verringert, sodass Unternehmen mit weniger mehr erreichen können. RDMA ist eigentlich eine Erweiterung von DMA (direkter Speicherzugriff) und umgeht die CPU, um „Zero Copy“-Vorgänge zu ermöglichen. Diese Technologien sind seit vielen Jahren ein integraler Bestandteil der Fibre-Channel-Speicherung. Diese deterministische Latenz, die Fibre Channel zur ersten Wahl für Unternehmen und hohe Arbeitslasten gemacht hat, ist jetzt mit Ethernet kostenlos, sodass Unternehmen jeder Größe problemlos von gemeinsam genutztem High-End-Speicher profitieren können.

Wie wird NVMe integriert?

Die Integration von NVMe in Ethernet erfolgt über das NVMe-over-Fabrics-Protokoll. Es ist heute einfach die schnellste Möglichkeit, Dateien über Ethernet zu übertragen. NVMe selbst wurde entwickelt, um die Vorteile moderner SSDs und Flash-Speicher durch aktualisierte SATA/SAS-Protokolle zu nutzen. NVMe legt die Messlatte noch höher, indem es die Fähigkeit des nichtflüchtigen Speichers nutzt, parallel zu arbeiten. Da es sich bei NVMe um eine Direct-Attached-Storage-Technologie handelt, kommt beim nächsten Schritt in Richtung Shared Storage Ethernet oder Fibre Channel ins Spiel: NVMe in eine Shared-Storage-Struktur zu bringen.

RAM

(Bildnachweis: Gorodenkoff/Shutterstock)

Welche Ethernet-Anforderungen gelten für Speichertechnologien wie RAM-Disk und Smart Storage?

Smart NICs sind ein teilweise neuer Begriff für die Fähigkeit von Netzwerkcontrollern, Vorgänge zu bewältigen, die bisher die Last eines Prozessors waren. Durch die Entlastung des Systemprozessors wird die Gesamteffizienz verbessert. Um diesen Begriff noch weiter zu fassen, bieten Netzwerkkartenhersteller die Field Programmable Gate Array (FPGA)-Technologie an, die es ermöglicht, anwendungsspezifische Funktionen, einschließlich Datenauslagerung und -beschleunigung, auf dem FPGA zu entwickeln und zu codieren. Durch die Verwendung der Hardware-Schicht sind diese Netzwerkkarten rasend schnell und bieten in Zukunft ein enormes Potenzial für weitere Innovationen auf dieser Schicht. Disk RAM Smart Storage macht in diesem Bereich Fortschritte, indem es die Hardware-Datenbeschleunigung in Speichergeräte integriert, die flüchtigen RAM verwenden (der schneller ist als der nichtflüchtige Speicher, der in heutigen NVMe-Geräten verwendet wird). Dies führt zu einem blitzschnellen Speicher mit der Möglichkeit, hohe Arbeitslasten zu rationalisieren. Die Kombination aus ultraschnellem RAM-Speicher, eingebettetem NIC-Supervisor und FPGA mit intelligenten Offloads und Datenbeschleunigung bietet ein enormes Potenzial für Super-High-Speed-Speicher. Ohne die neuesten Innovationen bei RDMA-Ethernet und NVMe-over-Fabrics gäbe es RAM-Disk und Smart Storage nicht.

Welche Zukunft hat die Ethernet-Technologie?

XNUMX-Gigabit-Ethernet breitet sich bereits von HPC-Lösungen auf Rechenzentren aus. Der Standard verdoppelt die Lanes auf jeweils fünfzig GbE, und es gibt eine bemerkenswerte Roadmap, die in nur wenigen Jahren eine mit fünf Terabit vorsieht. PCI Express XNUMX und XNUMX werden eine wichtige Rolle dabei spielen, diese höheren Geschwindigkeiten zu ermöglichen, und Unternehmen werden weiterhin nach Möglichkeiten suchen, die Leistung zu maximieren, Übertragungsgeschwindigkeiten zu beschleunigen und Möglichkeiten zur Steuerung des CPU-Betriebs zu finden. Und GPU mit FPGA und Netzwerkcontrollern.