Verteilte Infrastrukturen mit verteiltem Monitoring überwachen
Ungetrübter Blick
von Lars Getwan
Thomas Wittmann
Veröffentlicht in Ausgabe 01/2022 - PRAXIS
Betreiben Unternehmen IT-Assets in verteilten Umgebungen, ist ein zentralisiertes Monitoring oft fehleranfällig. Denn die erfassten Daten müssen weite und umständliche Wege von den überwachten Systemen zur Überwachungssoftware zurücklegen. Ein verteiltes Monitoring ist hingegen eine elegante Lösung für die Überwachung von weitläufigen IT-Infrastrukturen. Welche Vorteile dieser Monitoringansatz mit sich bringt und wo er sich besonders eignet, zeigt dieser Artikel.
Blaupausen für das Monitoring von verteilten Systemen gibt es leider nicht. Grundsätzlich gilt, dass der IT-Verantwortliche das Monitoring möglichst nahe bei den zu überwachenden Systemen hosten sollte. Eine schnelle und einfache Übertragung der auf den überwachten Systemen erfassten Daten zur eingesetzten Überwachungssoftware ist die Voraussetzung für die rasche Erkennung von Problemen. Allerdings wäre es zu aufwendig, für jedes einzelne lokale Netzwerk ein unabhängiges Monitoring zu betreiben.
Systematik des verteilten Monitorings
Das verteilte Monitoring bezieht sich nicht auf die Standorte der überwachten Systeme, sondern auf die Lastverteilung des Monitorings auf mehrere Monitoringumgebungen. Dabei entsteht aus mehreren lokalen sowie cloudbasierten Monitoringinstanzen eine zusammenhängende Umgebung, die sich zentral verwalten lässt.
Unser Bild zeigt die grundlegende Idee: Die Workloads des Monitorings verteilen sich auf mehrere Remote-Instanzen. Jede davon überwacht die Systeme in ihrem lokalen Netzwerk oder in der Cloud. Anschließend übertragen die verteilten Instanzen die benötigten Live-Daten aller überwachten Systeme zu einem zentralen Punkt. Das Monitoringteam kann alle Prozesse über diese Zentralinstanz steuern und Konfigurationen automatisch an die einzelnen Remote-Instanzen vererben.
Blaupausen für das Monitoring von verteilten Systemen gibt es leider nicht. Grundsätzlich gilt, dass der IT-Verantwortliche das Monitoring möglichst nahe bei den zu überwachenden Systemen hosten sollte. Eine schnelle und einfache Übertragung der auf den überwachten Systemen erfassten Daten zur eingesetzten Überwachungssoftware ist die Voraussetzung für die rasche Erkennung von Problemen. Allerdings wäre es zu aufwendig, für jedes einzelne lokale Netzwerk ein unabhängiges Monitoring zu betreiben.
Systematik des verteilten Monitorings
Das verteilte Monitoring bezieht sich nicht auf die Standorte der überwachten Systeme, sondern auf die Lastverteilung des Monitorings auf mehrere Monitoringumgebungen. Dabei entsteht aus mehreren lokalen sowie cloudbasierten Monitoringinstanzen eine zusammenhängende Umgebung, die sich zentral verwalten lässt.
Unser Bild zeigt die grundlegende Idee: Die Workloads des Monitorings verteilen sich auf mehrere Remote-Instanzen. Jede davon überwacht die Systeme in ihrem lokalen Netzwerk oder in der Cloud. Anschließend übertragen die verteilten Instanzen die benötigten Live-Daten aller überwachten Systeme zu einem zentralen Punkt. Das Monitoringteam kann alle Prozesse über diese Zentralinstanz steuern und Konfigurationen automatisch an die einzelnen Remote-Instanzen vererben.
Außerdem lassen sich auf Wunsch auch einzelne Instanzen manuell anpassen oder Zugangsrechte in gewünschtem Umfang für andere Teams wie lokale Mitarbeiter einräumen. Zudem kann die Alarmierung von verschiedenen Mitarbeitern remote oder zentral erfolgen.
Schon dieses vereinfachte Schema macht deutlich, dass es um mehr als nur Loadbalancing geht. Die lokale Verarbeitung der Monitoringdaten schont beispielsweise auch die Netzwerke, da die Übertragung der Live-Daten weniger Bandbreite beansprucht. Es ist wichtig, dass eine Überwachungsanwendung passende Features zum Monitoring verteilter Umgebungen mitbringt, ansonsten ist der Arbeitsaufwand nicht zu bewältigen.
Beispielsweise muss ein Tool die Live-Daten effizient übertragen können, ohne dass es zu viel Rechenkapazitäten der unterschiedlichen Monitoringinstanzen bindet. Außerdem sollten Unternehmen den Aufbau der eigenen Netzwerkumgebung und Verantwortungsbereiche von IT-Teams bedenken – auch diese müssen sich im Monitoring abbilden lassen.
Anforderung an Werkzeuge für das verteilte Monitoring
Im Idealfall verhält sich das verteilte Monitoring wie ein zentrales System und erlaubt die effiziente Umsetzung von einheitlichen Standards und Workflows über alle Monitoringinstanzen hinweg. Zu einer einfachen Verwaltung gehört auch das Deployment der einzelnen Instanzen. Standardisierungen und Automatisierung helfen dabei, dies möglichst effizient zu gestalten. Zudem müssen sich Einstellungen für die überwachten Hosts und Services, aber auch Vorgaben für Alarmierungen und die Konfiguration von Schwellenwerten über ausgewählte Instanzen replizieren lassen. Regelbasierte Ansätze erleichtern zusätzlich die Verwaltung einer großen Menge an Remote-Instanzen und das Monitoring einer großen Zahl an Systemen.
Gleichzeitig muss die eingesetzte Software zur Überwachung der Systeme in den lokalen Umgebungen flexibel genug sein. Viele Großunternehmen versuchen, einheitliche IT-Umgebungen in verschiedenen Niederlassungen zu betreiben. Trotzdem unterscheiden sich die eingesetzten Systeme häufig. Deshalb ist der Support heterogener IT-Landschaften eine Herausforderung. Ein Monitoringtool sollte out of the box eine möglichst breite Palette an verschiedenen Herstellern und Anbietern unterstützen.
Wichtig ist außerdem eine flexible Verwaltung von Benutzerkonten. Damit können Monitoringverantwortliche Freigaben und Zugriffsrechte granular auf unterschiedliche Mitarbeiterrollen zuschneiden. Einerseits müssen sich Kompetenzen für das Monitoring definieren lassen, sodass die Administrationsrechte klar geregelt sind. Andererseits haben die zuständigen Teams oft nur limitierte personelle Ressourcen und können über eine effiziente Zugangssteuerung von anderen IT-Teams unterstützt werden – beispielsweise indem lokale Mitarbeiter eigene Monitoring-Dashboards für ihre Systeme erstellen können oder ihre Remote-Instanz sie direkt über kritische Zustände informiert.
Vorteile des verteilten Monitorings
Eine Überwachung von verteilten Umgebungen über eine rein cloudbasierte Lösung oder eine einzige zentrale Instanz außerhalb der lokalen Umgebungen ist zwar grundsätzlich möglich, aber nur unter bestimmten Bedingungen sinnvoll. Hier müssen die Verbindungen von den überwachten Systemen zum Monitoring besonders verlässlich sein. Bei der cloudbasierten Überwachung oder über eine einzige zentrale Instanz wäre zum Beispiel kein Monitoring mehr möglich, wenn diese Verbindung unterbrochen wird. Ist die Überwachung dagegen lokal gehostet, läuft sie auch dann weiter, wenn die Verbindung zur Zentralinstanz unterbrochen wäre.
Gerade beim Einsatz von ressourcenhungrigen Überwachungsprotokollen wie SNMP entstehen große Datenmengen. Bei cloudbasierten Ansätzen können dadurch je nach Bezahlmodell hohe Kosten allein für die Datenübertragung entstehen. Bei zentralen Ansätzen sollten IT-Verantwortliche dies bei der Skalierung unbedingt bedenken, da einige Tools auf die Hardwareressourcen des Host-Servers limitiert sind und zudem einen großen Overhead produzieren. Theoretisch sind verteilte Monitoringansätze besser skalierbar, da sich durch die Verteilung der Rechenlast auf verschiedene Server die Hardwareressourcen anpassen lassen – dies hängt aber natürlich vom eingesetzten Tool ab.
Ein Vorteil eines zentralen Monitorings liegt im geringeren Aufwand, da es nur eine Instanz zu verwalten gilt. Mit dem Monitoring als Cloudservice fällt zudem die Administration der Hardware weg. Beim verteilten Monitoring sind hingegen immer mehrere Instanzen zu verwalten. Haben Unternehmen kein dezidiertes Monitoringteam, sondern beispielsweise nur einen einzigen Verantwortlichen, ist die Wartung einer großen Anzahl an Instanzen nur schwer umsetzbar.
Genauso kann der Aufwand für Hardwareressourcen bei Überwachungslösungen mit hohen Systemanforderungen in verteilten Umgebungen problematisch sein, da sich die Ressourcenanforderungen nicht in jeder Niederlassung erfüllen lassen. Unterhalten Organisationen bereits leistungsstarke Netzwerke mit guten Verfügbarkeitszeiten bei ihren Carrier-Anbietern, kann ein zentrales Monitoring durchaus die sinnvollere Lösung sein.
Vorsicht ist jedoch bei cloudbasierten Monitoringansätzen in verteilten Umgebungen mit lokalen Netzwerken geboten. Es ergibt Sinn, Cloud-Assets aus der Cloud zu überwachen, aber bei der Überwachung von On-Premises-Systemen mit Cloudwerkzeugen ist es nochmals anspruchsvoller, die Datenströme abzusichern. Solche Szenarien werden schnell zu einer großen Herausforderung für Netzwerkverantwortliche und Sicherheitsteams, die die Zugänge vor fremden Zugriff schützen müssen. Datenströme lassen sich bei VPN-, WAN- oder MLPS-Verbindungen wesentlich leichter absichern, beispielsweise über DMZs (Demilitarisierte Zonen).
Es ist daher sinnvoll, den Aufwand für den Betrieb eines verteilen Monitorings mit mehreren Remote-Instanzen mit dem für ein zentrales Monitoring aus der Ferne beziehungsweise den Kosten für einen Clouddienst abzugleichen. Je nach Umgebung variieren die Kosten für Hardware und der entsprechende Konfigurationsaufwand.
Praxisbeispiel Kirchhoff Automotive
Bisher haben wir die verschiedenen Ansätze als Alternativen gegenübergestellt. Dabei ist verteiltes Monitoring kein radikales Konzept und der Grad der Verteilung lässt sich je nach Bedarf abstufen. Genauso lassen sich Remote-Monitoringinstanzen in der Cloud hosten und gemeinsam mit den lokalen Remote-Instanzen zentral verwalten. Die wenigsten verteilten Monitoringumgebungen nutzen tatsächlich jeweils eine lokale Monitoringinstanz für jedes lokale Netzwerk, dies ist aus wirtschaftlichen und technologischen Gründen häufig nicht sinnvoll. Gerade bei kleineren Netzwerkumgebungen wäre der Aufwand für die Verwaltung und Betrieb einer Monitoringinstanz zu hoch.
Ein gutes Beispiel ist das verteilte Monitoring von Kirchhoff Automotive. Das Unternehmen entwickelt Bauteile für Rohkarosserien sowie Fahrwerke und hat 27 Werke in elf Ländern. Für die Überwachung der IT-Systeme in den Niederlassungen nutzt das Unternehmen ein verteiltes Monitoring, das aus insgesamt zehn Instanzen besteht. Inklusive der Zentralinstanz laufen drei davon ins Firmenhauptquartier in Iserlohn in Deutschland, während die anderen Remote-Instanzen sich in China, Irland, Mexiko, Polen, Portugal und den USA befinden.
Diese Monitoringlandschaft ist das Ergebnis einer Konsolidierung: 2018 hatte das Unternehmen zunehmend Probleme, da sich der Betrieb der bis dahin eingesetzten Tools immer aufwendiger gestaltete und diese zudem teilweise nicht mehr weiter skalierten. Das Monitoringteam suchte daher einen Weg, um seine über 1000 Systeme weltweit zu überwachen. Letztendlich entschied sich Kirchhoff Automotive dazu, von drei verschiedenen auf ein einziges, hochskalierbares Monitoringtool umzusteigen und durch eine zentrale Verwaltung Prozesse effizienter zu gestalten. Ferner wollte das Unternehmen die Überwachung näher an die einzelnen Niederlassungen heranbringen, um dessen Zuverlässigkeit zu erhöhen.
Bei der Aufteilung der Remote-Instanzen orientierte sich Kirchhoff Automotive an den jeweiligen Ländergrenzen. Nur in Ausnahmefällen überwacht eine Systeme auch über Ländergrenzen hinweg. Dies hat den Vorteil, dass der Aufwand für das Monitoring mit zehn Instanzen insgesamt relativ überschaubar bleibt und gleichzeitig der Weg der Monitoringdaten kurz ist. Dieses verteilte Monitoring erlaubt es Kirchhoff Automotive, Systeme effizient und zuverlässig zu überwachen. Zudem kann das Team die lokalen IT-Kollegen ohne viel Aufwand in die Überwachung involvieren, da die Benutzerkontensteuerung des Monitorings mit dem Active Directory synchronisiert ist. In mehreren Niederlassungen haben die Beschäftigten außerdem eigene Dashboards und Visualisierungen für ihre Umgebung erstellt.
Fazit
Verteiltes Monitoring bietet viele Vorteile, um verteilte Umgebungen zu überwachen. Im Endeffekt geht es darum, dass sich das Monitoring an die eigene Infrastruktur und die eigenen Bedürfnisse anpasst – und nicht umgekehrt. Das Beispiel von Kirchhoff Automotive zeigt, dass die Aufteilung des Monitorings entlang von Ländergrenzen in der Praxis eine gute Balance aus Effizienz, Zuverlässigkeit, personellem Aufwand und weiteren Faktoren ermöglichen kann. Dies ließ sich aber erst umsetzen, nachdem das Monitoring auf ein passendes Tool konsolidiert wurde.
(jp)
Lars Getwan und Thomas Wittmann sind IT-Berater bei der tribe29 GmbH.