1994 stellte L. Peter Deutsch seine  „Fallacies of Distributed Computing” vor. Er adressierte damals schon häufige Falschannahmen von Entwicklern bei der Datenverarbeitung in verteilten Systemen. Im Jahr 2022 wird es wichtiger denn je sein, aus diesen Irrtümern die richtigen Schlüsse zu ziehen. Denn die Entwicklung von Software in verteilten Umgebungen wird so wichtig sein wie nie zuvor. Unternehmensnetzwerke gewinnen immer weiter an Komplexität, müssen aber gleichzeitig als sicheres Fundament bei der Umsetzung von IT-Trends wie Edge-Computing und Data-Fabric-Architekturen dienen. Der Schlüssel zum Erfolg ist das richtige Verständnis für die Wichtigkeit von Netzwerkvirtualisierung und die genaue Überwachung von Netzwerken.

Nachdem Unternehmen im Jahr 2021 große Anstrengungen unternommen haben, um auf Home-Office oder hybride Arbeitsmodelle umzustellen, ist eine Rückkehr zur zentralisierten Büroarbeit im Jahr 2022 unwahrscheinlich. Gartner sieht die nächste große Herausforderung für Unternehmen im Übergang zu „Distributed Enterprises”. Ein Sprecher des Analystenhauses meinte, dass Organisationen in sämtlichen Branchen, von Bildung bis zum Handel, ihr Modell zur Bereitstellung von Unternehmensressourcen an die zunehmende geografische Verteilung anpassen sollten. Gartner erwartet, dass im Jahr 2023 75% dieser Distributed Enterprises ein 25% schnelleres Umsatzwachstum verzeichnen als ihre Wettbewerber.

Die Ausdehnung von Unternehmensnetzwerken geht einher mit dem verstärkten Einsatz von Cloud-Lösungen, da sie eine leichtere Skalierung von IT-Ressourcen ermöglichen. Neben den bekannten Vorteilen der Cloud setzen Organisationen aber gleichzeitig verstärkt auf Dezentralisierung und Edge-Computing. Eine Untersuchung der IDC zeigt, dass die Implementierung von Edge-Netzwerken im Jahr 2022 um 40% steigen wird. Die drei Hauptgründe dafür sind laut der Untersuchung die Erwartung von verbesserter Produktivität und Effizienz, bessere Möglichkeiten bei der Absicherung und Gewährleistung von Compliance-Richtlinien sowie schnellere Entscheidungsprozesse.

Es hört sich zunächst paradox an, dass Unternehmen einerseits Assets in der Cloud zentralisieren und gleichzeitig in dezentrale Technologien am Netzwerkrand investieren. Es ergibt aber Sinn, wenn man das Gesamtbild betrachtet. Mit einer passenden Architektur für Applikationen sind der kombinierte Einsatz von Cloud-Umgebungen und Edge-Computing ein mächtiges Werkzeug, mit dem Unternehmen die Qualität ihrer Services verbessern können. Ein passender Kandidat für eine solche vereinende Architektur sind Data-Fabrik-Ansätze in hybriden IT-Infrastrukturen, allerdings gibt es Grund zur Annahme, dass solche Ansätze erst in einigen Jahren das  „Plateau of Productivity” erreichen.

Mehr als nur Netzwerkvirtualisierung

Unabhängig davon, wie schnell Unternehmen all diese Trends in der Praxis implementieren, sie alle erhöhen die Last auf ihren Netzwerken. Diese werden weiter ausgedehnt, müssen größere Datenmengen übertragen und sind einer höheren Gefahr durch Sicherheitsvorfälle ausgesetzt. Das Investment in gute Netzwerk-Hardware mit einer robusten physischen Architektur reicht nicht mehr aus, um den Ansprüchen gerecht zu werden. Bereits im Jahr 2017 kündigte Gartner deshalb den Übergang von  „Software-Defined Networks” zu „Intent-based Networking” als „the next big thing” an.

Die Herausforderung sind die unterschiedlichen Techniken, welche Unternehmen bei der Virtualisierung ihrer Netzwerke einsetzen. Beim Intent-based Networking ist das Ziel, dass virtuelle Netzwerke sich intelligent und automatisiert auf Situationen einstellen. Server-Virtualisierung und Segmentierung in VLANs gehören bereits zur Netzwerkvirtualisierung, sind aber recht weit weg von den neuen Anforderungen. Eine Transformation hin zu Intent-based Networking verlangt nach einer umfangreichen Veränderung in der Netzwerktopologie. Es ist schwierig, Netzwerke anzupassen, vor allem, wenn Unternehmen deren Verlässlichkeit, Performance und Sicherheit fälschlicherweise als gegeben ansehen. Der Wechsel von Port-basierten Netzwerken zu einem Policy-basierten Ansatz mit Mikrosegmentierung und Mechanismen zur Evaluierung von umgesetzten Intents benötigt Zeit. Man sollte dies in keinem Fall über das Knie brechen. Deshalb ist es umso wichtiger auf diesem Weg im Jahr 2022 die entscheidenden ersten Schritte in die richtige Richtung zu gehen.

Eine erste Grundlage im Umgang mit der zunehmenden Ausdehnung von Netzwerken, ist der Aufbau von sicheren, virtuellen Tunneln, sowie deren effiziente Verwaltung. Die Tunnel sind die Grundlage, um standortunabhängig sicheren Zugriff auf Unternehmensressourcen zu ermöglichen. Die Sicherheit von VPNs lässt sich durch Ansätze wie Internet Protocol Security (IPsec) verbessern. Zudem helfen Automatisierungswerkzeuge wie Ansible bei der Konfiguration von Netzwerkgeräten, beispielsweise Firewalls und Switches, damit Unternehmen nur den nötigen Datenverkehr durch ihre VPNs senden müssen. Die Kombination von IPsec und der automatisierten Verwaltung von Konfigurationen sind nur eine Möglichkeit, um die Sicherheit von VPNs zu erhöhen und gleichzeitig den Arbeitsaufwand für Netzwerkarchitekten zu reduzieren. In jedem Fall müssen Organisationen Wege finden, um ihre virtuelles Tunneling zu optimieren.

Außerdem werden Unternehmen wahrscheinlich Multiprotocol Label Switching (MPLS) durch moderne Ansätze wie Software-Defined Wide-Area Networks (SD-WANs) ersetzen, falls dies möglich ist. MPLS bietet keine Verschlüsselung und der Einsatz wird zunehmend problematisch, da es nur mit statischen und oftmals umständlichen Routen funktioniert. Fast alle Datenpakete gehen den langen Weg über den zentralen Knotenpunkt und belastet damit die Carrier besonders stark. SD-WAN ermöglicht ein flexibleres Routing des Datenverkehrs zwischen unterschiedlichen Standorten. Dazu verlässt sich SD-WAN beim Routing auf intelligente Firewall-Policies, welche auf Basis des sendenden Gerätes und der Applikation den Informationsfluss regeln. Deshalb müssen Netzwerkarchitekten mehr Zeit für die Konfiguration von Netzwerkgeräten einplanen. Dies ist ein weiteres Argument, warum die automatisierte Konfiguration von Netzwerkgeräten wichtiger im Jahr 2022 wird.

Im Bereich Sicherheit nimmt Gartner an, dass Unternehmen verstärkt auf „Zero-Trust-Architekturen” (ZTA) im Netzwerkbereich setzen werden. Anstatt nur über Zugangsdaten wie einem Passwort, entscheidet ein Proxy, ob der Zugang gewährt wird. Dieser kalkuliert ein Risikoprofil auf Basis von Kontextdaten. Im Mai 2021 hat die Regierung der USA per Executive Order alle Bundesbehörden zur Umsetzung von Zero-Trust-Ansätzen angewiesen. ZTA ist keine Neuheit, da sich IT-Umgebungen aber immer weiter ausdehnen und heterogener werden, sollten sich auch IT-Teams außerhalb von US-Behörden auf die Umsetzung solcher Architekturen im Jahr 2022 vorbereiten.

Netzwerk-Monitoring im Jahr 2022

Netzwerküberwachung kann den wachsenden Datenmengen und der zunehmenden Ausdehnung von Netzwerken nicht entgegenwirken. Gleichzeitig ist die einheitliche Überwachung sämtlicher Geräte im Netzwerk der beste Weg, um eine optimale Performance und bestmögliche Verfügbarkeit zu garantieren. Präzise Monitoring-Daten sind außerdem eine Grundlage, um die Modernisierungsmaßnahmen in Netzwerken richtig zu priorisieren. Besonders hilfreich ist dabei ein gutes Forecasting.

Bereits jetzt ist das Netzwerk-Monitoring in einigen Unternehmen nicht in der Lage, sämtliche Assets und relevante Parameter zu erfassen. Wichtige Aspekte sind zum Beispiel die Übertragungsraten von Paketen, Fehlerraten, die Bandbreite, oder der Status aller Ports von sämtlichen Routern und Switches. Deshalb brauchen Netzwerkarchitekten einen modernen Monitoring-Ansatz, der nicht allein auf SNMP angewiesen ist, sondern auch eine tiefgreifende Analyse ihrer Netzwerke ermöglicht. Dazu gehört zum Beispiel die Überwachung von Network-Flows, um schneller zu Ursachen von Problemen vorzudringen und Flaschenhälse im Netzwerk nachhaltig beseitigen zu können. Beide Fähigkeiten werden im Jahr 2022 wichtiger als je zuvor sein.

Automatisierung des Monitorings ist ebenfalls wichtig. Es passt nicht zusammen, wenn Netzwerkarchitekten einerseits die Verwaltung von Netzwerkkonfigurationen automatisieren, dann aber andererseits das Monitoring dafür manuell managen müssen. Der Übergang zu SD-WANs geht beispielsweise einher mit dem Einsatz von mehreren modernen Firewall-Appliances. Diese muss ein Monitoring natürlich überwachen können, im Idealfall über die vom Hersteller dafür vorgesehene API. Außerdem sollte das Monitoring solche Systeme automatisch erkennen, in die Überwachung aufnehmen und die nötigen Informationen effizient abrufen können. Zeitgleich ist es wichtig, dass ein Monitoring neue Netzwerkansätze evaluieren kann, um mögliche fehlerhafte Konfigurationen umgehend zu erkennen.

Die stärkere Ausdehnung von Netzwerken und der Fokus auf Edge-Umgebungen stellen auch neue Anforderungen an ein Monitoring. Die Überwachung sollte möglichst nah bei den zu überwachenden Systemen stattfinden und Unternehmen sollten die Last des Monitorings sinnvoll verteilen. Edge-Devices sorgen für mehr Rechenleistung in den lokalen Netzwerken und erhöhen die Resilienz von essentiellen IT-Prozessen. Dieser Nutzen wird aber verkleinert, falls man auf eine Cloud-basierte Überwachung setzt, da diese zusätzliche Internetbandbreite benötigten. Verteilte Monitoring-Ansätze dagegen eignen sich ideal für die Überwachung von Edge-Devices, da sie sich einfach aufsetzen und verwalten lassen und gleichzeitig die benötigte Netzwerkbandbreite für das Monitoring reduzieren. Zudem läuft das lokale Monitoring weiter, falls die Internetverbindung zum lokalen Netzwerk unterbrochen wird.

Da mobiles Arbeiten weiterhin fester Bestandteil der Agenda bleiben wird, muss eine Monitoring-Lösung unterschiedliche Techniken für Remote-Zugänge überwachen können. Dazu gehört in jedem Fall das VPN-Monitoring, aber auch Ansätze wie ZTA haben Auswirkung auf die Überwachung. So weist das National Institute of Standards and Technology (NIST) auf die Notwendigkeit von Netzsegmenten für Applikationen hin, welche ZTA nicht unterstützen. Nach Einführung von ZTA sollten diese Segmente nur über sichere Gateways erreichbar sein. Ein Monitoring muss daher solche Netzwerksegmente und Gateways überwachen können.

Fazit

Falsches Vertrauen in Netzwerke hat immer wieder desaströse Folgen gehabt. Im Jahr 2022 wird es umso wichtiger, aus den Fallacies of Distributed Computing  zu lernen, da die meisten IT-Innovationen auf optimal funktionierende Netzwerke setzen, selbst wenn diese stärker ausgedehnt werden als je zuvor.

Netzwerkarchitekten  müssen gleich mehrere geschäftskritische Aufgaben meistern. Zunächst müssen sie Unternehmensnetzwerke unter allen Umständen am Laufen halten, und dafür sorgen, dass die Netzwerke Ressourcen für Nutzer unabhängig von deren Standort bereitstellen können. Dies ist aufgrund der nie dagewesenen Verteilung der Assets und der wachsenden Datenmengen eine Herausforderung. Die meisten Netzwerkarchitekturen erlauben noch keine automatische Zuweisung von Ressourcen. Ein Überwachungs-Tool muss Flaschenhälse durch präzise Monitoring-Daten erkennen und die Compliance mit Branchenstandards sichern können.

Außerdem müssen Netzwerkarchitekten ihre Netzwerke und die Überwachung auf die neuen Technologien anpassen. Unternehmen setzen zum Beispiel vermehrt auf Edge-Devices, die IT-Teams ebenfalls überwachen müssen. Eine Überwachungslösung sollte solche modernen Geräte ohne viel Aufwand im Auge behalten können.

Und schließlich müssten sich Netzwerkarchitekten ihrer großen Verantwortung für den Erfolg des gesamten Unternehmens bewusst sein. Im Jahr 2022 und darüber hinaus obliegt ihnen die Aufgabe, komplexe Netzwerke für wegweisende Zukunftstrends wie Data-Fabric-Ansätze vorzubereiten. Solche Daten-Management-Architektur zielen darauf ab, den Zugriff auf verteilte Daten zu optimieren und diese unabhängig von den Datenprozessen, der Datenverwendung und des Standorts des Nutzers verfügbar zu machen. Organisationen können kommende Innovationen in ihren hybriden Umgebungen nur richtig einsetzen, wenn sie die richtigen Grundlagen in ihren Netzwerken bereits jetzt schaffen.