Die Infrastruktur ist für die Zukunft der Netzwerküberwachung nicht so wichtig.

Die Infrastruktur ist für die Zukunft der Netzwerküberwachung nicht so wichtig.
Wenn wir die Herausforderungen untersuchen, die die heutige digitale Welt mit sich bringt, wird deutlich, dass IT-Betreiber agil und auf jeden technologischen Fortschritt vorbereitet sein müssen. Damit die Branche weiterhin gedeihen und wachsen kann, müssen wir weiterhin in die Zukunft der Informationstechnologie blicken. Um uns auf die Zukunft vorzubereiten, müssen wir zunächst die laufenden Veränderungen verstehen, und in den letzten Jahren gab es in der Betriebswelt mehrere bemerkenswerte Veränderungen. Die erste ist die Virtualisierung. Aus diesem Grund sind wir von einem Server ohne einfaches Betriebssystem, auf dem einige Anwendungen laufen, zu einem Server übergegangen, auf dem viele virtualisierte „Server“ laufen. Diese Server wurden durch Virtualisierung der zugrunde liegenden Serverhardware abstrahiert. Dadurch konnten Betreiber mehrere „Server“ auf einem einzigen physischen Server betreiben. Der Vorteil besteht in einer ausgewogeneren Arbeitslast in der gesamten Infrastruktur und in der Möglichkeit, virtuelle Maschinen auf weniger physischen Servern zu konsolidieren, was für sie geringere Vorabinvestitionen bedeutet. IT-Betreiber. Die zweite Veränderung erfolgte mit dem Aufkommen und der überwältigenden Verbreitung von Containern. Container ähneln der Virtualisierung, außer dass sie die Abstraktion auf die nächste Ebene bringen. Anstatt einfach Hardware zu virtualisieren und vollständige Betriebssysteme auf jeder virtuellen Maschine auszuführen, werden Container auf dem Betriebssystem eines Hosts oder Hosts ausgeführt. eines Knotens. Das bedeutet, dass viele Workloads auf einem Betriebssystem laufen. Diese Knoten müssen nicht auf Bare-Metal-Basis sein. Es könnten auch virtuelle Maschinen sein. Die Idee ist, dass es einen „Server“ gibt, der viele Container ausführen und die Arbeitslast zwischen diesen Servern verteilen kann, um die Effizienz zu steigern. Die letzte und jüngste Verschiebung ist Functions as a Service (FaaS). Manche Leute nennen diesen Server ohne Server, weil dadurch die Notwendigkeit einer Serverwartung innerhalb der Organisation entfällt. Das heißt nicht, dass es nicht irgendwo einen Server gibt, der diese Funktion ausführt, sondern nur, dass jemand anderes dafür sorgt, dass es funktioniert. Mit FaaS können Softwareentwickler nur ihre Geschäftslogik schreiben und diese dann auf einen FaaS-Dienst bei einem öffentlichen Cloud-Anbieter wie AWS herunterladen. Server, auf denen Container ausgeführt werden, die der Geschäftslogik folgen, sind völlig abstrakt, sodass Unternehmen sich ausschließlich auf die Anwendungsentwicklung konzentrieren können.

Die Infrastruktur ist nicht wichtig.

Aufgrund der Abstraktion der Hardware und der Flüchtigkeit moderner Anwendungen werden wir uns in den nächsten Jahren nicht mehr für Infrastruktur interessieren. Je mehr wir uns und unsere Apps vom Bare-Metal entfernen, desto weniger müssen wir uns darüber Sorgen machen. Denk darüber nach. Wenn ein Betreiber eine vollständig serverlose Anwendung in einer öffentlichen Cloud ausführt, muss er sich nicht nur keine Sorgen um die Infrastruktur machen, die sie unterstützt, sondern auch nicht. eine Überwachung durch den Bediener möglich. Es gibt keine Möglichkeit, auf Metriken vom Netzwerk oder den Servern hinter den Containern zuzugreifen, auf denen der Code ausgeführt wird. Im Falle von Containern sollten sich DevOps-Teams, die Anwendungen auf einem gut aufgebauten oder in der Cloud verwalteten Kubernetes-Cluster ausführen, keine Gedanken über die Hardware machen, auf der sie ausgeführt werden. Zunehmend wird die Verwaltung von K8- oder ähnlichen Clustern in die Cloud „ausgelagert“, und weder die Hardware unter diesen verwalteten Clustern noch die Cluster selbst beziehen sich auf das Unternehmen, das die Anwendung betreibt. Der Grund, warum die Auslagerung dieser Arbeit sinnvoll ist, liegt darin, dass mit der Abstraktion des Computers die Hardware und ihre Bedienung immer mehr zu einer Ware werden.

Bildnachweis: Pexels (Bild: © Bildnachweis: Home Photos/Pexels)

Dies zu überwachen heißt zu beobachten

Es stellt sich also die Frage: Wie sieht die Zukunft der Überwachung aus? Um diese Frage zu beantworten, müssen wir uns auf die Anwendung konzentrieren und nicht auf die Workloads, die auf der Infrastruktur ausgeführt werden. Beobachtbarkeit ist eine gute Möglichkeit, darüber nachzudenken. Dazu gehören Metriken, Protokolle und Traces, die direkt von unserer Arbeitslast oder Anwendung abgerufen oder gesendet werden. Mit diesen Daten können wir aus seinen externen Ausgaben den aktuellen Zustand eines Systems ableiten und Kontext gewinnen, um diesen Zustand zu verstehen. Eine hohe Kardinalität in unseren Überwachungsdaten war einst ein Grund und etwas, das jeder zu vermeiden versuchte, aber um eine Anwendung beobachtbar zu machen, war es wichtig, äußerst kardinale Daten zu speichern, um das Problem wirklich analysieren zu können. Solange der Bediener den Teil der Anwendung identifizieren kann, der den Fehler verursacht, kann er die Datenprotokolle abfragen und feststellen, ob das Problem bei einem bestimmten Knoten liegt. aus der Datenbank. Ungewöhnlicher Datenverkehr sollte leicht zu erkennen sein, insbesondere wenn Schreibvorgänge zu Verzögerungen führen. Insgesamt verändert sich die Art und Weise, wie wir unser Netzwerk überwachen, ob es uns gefällt oder nicht. Daher stehen IT-Betreiber vor der folgenden Herausforderung: Passen Sie Veränderungen jetzt an und nehmen Sie sie an, sonst werden Sie in Zukunft irrelevant. Martin Hodgson, Country Manager UK & I bei der Paessler AG