Die Verwaltung moderner Rechenzentren wird in hybriden Infrastrukturen bestehend aus physischen und virtuellen Ressourcen immer komplexer. Herkömmliche Tools für Data Center Infrastructure Management reichen hierfür oft nicht mehr aus. Vielmehr ist ein hybrides, digitales Infrastrukturmanagement notwendig, das das Kabelmanagement, das Patchmanagement und die Administration von Netzwerkverbindungen abdeckt.
Die COVID-19-Pandemie hat Schwachstellen bestehender IT-Infrastrukturen von Unternehmen gnadenlos offenbart: So ließ sich der massenhafte Fernzugriff von Mitarbeitern aus dem Home Office kaum bewältigen. Zwar hatten viele Firmen bereits vor Ausbruch der Pandemie die digitale Transformation ihrer Prozesse eingeleitet, dennoch fehlte in vielen Fällen die nötige Flexibilität, um schnell auf die rasche Zunahme von Remote-Verbindungen reagieren zu können.
Das war in erster Linie auf ein mangelhaftes Kapazitätsmanagement und eine unzureichende Dokumentation zurückzuführen. Dies führte zu einer enormen Belastung der Netzwerke, denn diese verfügten nicht über die nötige Bandbreite, um einen derartigen Anstieg des Datenvolumens zu stemmen. So hat COVID-19 sehr deutlich gemacht, wie wichtig das Remote-Management von Infrastruktur, Tools und Prozessen für Unternehmen ist.
VVon DCIM zu HDIM
Das Management von Rechenzentren, Kabelnetzen, IT-Ressourcen und Edge-Standorten entwickelt sich kontinuierlich weiter. Bisher reichte ein klassisches Data Center Infrastructure Management (DCIM) für einen ganzheitlichen Überblick über die Leistung eines Rechenzentrums aus. Damit ließ sich auch sicherstellen, dass Energie, Geräte und Stellfläche so effizient wie möglich genutzt werden. Das Management moderner Rechenzentren hat jedoch aufgrund der digitalen Transformation an Komplexität gewonnen. Unternehmen verfügen heute in der Regel über eine hybride, digitale Infrastruktur, die sowohl aus physischen als auch virtuellen Assets und Funktionen besteht – mit unzähligen logischen Ressourcen, Verbindungen und Abhängigkeiten untereinander. Dabei befinden sich Teile der Infrastruktur vor Ort, andere jedoch in der Cloud – viele Geräte sind so aus dem Rechenzentrum verschwunden. Aber es gibt auch den umgekehrten Fall, was am Beispiel Telko-Ressourcen deutlich wird: Virtualisiert und nicht mehr Teil des physischen Kommunikationsnetzes werden sie standardmäßig in das Rechenzentrum verlagert.
Die COVID-19-Pandemie hat Schwachstellen bestehender IT-Infrastrukturen von Unternehmen gnadenlos offenbart: So ließ sich der massenhafte Fernzugriff von Mitarbeitern aus dem Home Office kaum bewältigen. Zwar hatten viele Firmen bereits vor Ausbruch der Pandemie die digitale Transformation ihrer Prozesse eingeleitet, dennoch fehlte in vielen Fällen die nötige Flexibilität, um schnell auf die rasche Zunahme von Remote-Verbindungen reagieren zu können.
Das war in erster Linie auf ein mangelhaftes Kapazitätsmanagement und eine unzureichende Dokumentation zurückzuführen. Dies führte zu einer enormen Belastung der Netzwerke, denn diese verfügten nicht über die nötige Bandbreite, um einen derartigen Anstieg des Datenvolumens zu stemmen. So hat COVID-19 sehr deutlich gemacht, wie wichtig das Remote-Management von Infrastruktur, Tools und Prozessen für Unternehmen ist.
VVon DCIM zu HDIM
Das Management von Rechenzentren, Kabelnetzen, IT-Ressourcen und Edge-Standorten entwickelt sich kontinuierlich weiter. Bisher reichte ein klassisches Data Center Infrastructure Management (DCIM) für einen ganzheitlichen Überblick über die Leistung eines Rechenzentrums aus. Damit ließ sich auch sicherstellen, dass Energie, Geräte und Stellfläche so effizient wie möglich genutzt werden. Das Management moderner Rechenzentren hat jedoch aufgrund der digitalen Transformation an Komplexität gewonnen. Unternehmen verfügen heute in der Regel über eine hybride, digitale Infrastruktur, die sowohl aus physischen als auch virtuellen Assets und Funktionen besteht – mit unzähligen logischen Ressourcen, Verbindungen und Abhängigkeiten untereinander. Dabei befinden sich Teile der Infrastruktur vor Ort, andere jedoch in der Cloud – viele Geräte sind so aus dem Rechenzentrum verschwunden. Aber es gibt auch den umgekehrten Fall, was am Beispiel Telko-Ressourcen deutlich wird: Virtualisiert und nicht mehr Teil des physischen Kommunikationsnetzes werden sie standardmäßig in das Rechenzentrum verlagert.
Die Beispiele zeigen, dass das Management dieser hybriden, digitalen Infrastruktur mit herkömmlichem DCIM nicht mehr möglich ist, sondern ein hybrides, digitales Infrastrukturmanagement (HDIM) gefragt ist. Dabei unterscheiden sich beide Alternativen grundlegend: Während sich DCIM in erster Linie auf Fläche, Strom und Kühlung konzentriert, bezieht HDIM alle digitalen Komponenten und das Netzwerk mit ein. Zwar ist HDIM ein relativ neuer Begriff, dennoch gibt es Lösungen, die hybride Netzwerkarchitekturen unterstützen, schon seit vielen Jahren. Damit können Unternehmen komplexe und heterogene IT-, Telekommunikations- und Rechenzentrumsinfrastrukturen erfassen, dokumentieren und verwalten – von der physischen Ebene bis hin zu den Geschäftsanwendungen.
Um geografisch verteilte IT-Ressourcen aus der Ferne zu überwachen, müssen IT-Abteilungen zudem die gesamte Infrastruktur vom zentralen Rechenzentrum bis zu den einzelnen Edge-Standorten bewerten, verwalten und optimieren. Dazu gehören die genaue Lage aller Edge-Locations und ihre Anbindung an das Hauptrechenzentrum, einschließlich der Gebäudeinfrastruktur (Strom, Kühlung, Stellfläche), der IT-Komponenten (Netzwerke, Server, Speicher), der Konnektivität (physische Verkabelung und logische Verbindungen) sowie der Services (Software, Anwendungen). Wichtig ist auch ein detaillierter Überblick über die aktuelle Situation, um die Auswirkungen geplanter Änderungen im Vorfeld realistisch einschätzen zu können.
Ressourcen mit konsistentem Datenmodell managen
Ein herstellerunabhängiger und neutraler Einblick in alle physischen und virtuellen Assets und deren Abhängigkeiten lässt sich nur durch ein einheitliches Ressourcenmanagement mit einem konsistenten Datenmodell erreichen. HDIM beginnt daher mit einer Inventur aller physischen und virtuellen Ressourcen sowie logischen Verbindungen und Abhängigkeiten. Diese sind in einem zentralen Repository enthalten, auf das alle Benutzer im gesamten Unternehmen zugreifen können. Diese Daten bilden die Grundlage, um den Kern der hybriden Infrastruktur optimal zu verwalten.
Einige Tools bieten 3D-Darstellungen und Simulationen, die es IT-Verantwortlichen erlauben, die in der zentralen Datenbank gespeicherten Informationen zu visualisieren und Änderungen zu simulieren. Die dynamisch aktualisierte Datenbank gewährleistet hierbei eine hohe Konsistenz und Genauigkeit der Daten. Von entscheidender Bedeutung ist dies für Planungs-, Betriebs- und Fulfillment-Teams, die diese Informationen für optimale Geschäftsentscheidungen benötigen. Dieser Ansatz gewährleistet ein Höchstmaß an Datengenauigkeit für die anstehenden Änderungen.
Das Dashboard einer RZ-Verwaltung sollte Informationen benutzerfreundlich und anschaulich visualisieren.
Vom Kabel- zum Konnektivitätsmanagement
Traditionell werden das Management von Patchkabeln mit der Verkabelung im Gebäude sowie die Kabelstrecken zwischen den Gebäuden auf dem Campus und die Ende-zu-Ende-Konnektivität – also die finalen Signalstrecken – als drei separate Bereiche betrachtet. Um diese kümmern sich unterschiedliche Teams mit eigenen Tools. Heute müssen aufgrund der Digitalisierung und Virtualisierung dieselben Ressourcen jedoch in allen drei Bereichen zum Einsatz kommen. So sind Assets und Services in modernen, komplexen Netzwerken mit einem einheitlichen Managementtool zu verwalten. Dies gilt unabhängig davon, wo sie sich innerhalb des Unternehmens befinden. Nur so lässt sich eine vollständige Transparenz der gesamten Infrastruktur gewährleisten.
Herkömmliche DCIM-Lösungen enthalten oft keine Kabel-, Patching- oder Netzwerkmanagementfunktionen. Stattdessen konzentrieren sie sich hauptsächlich auf Fläche, Strom sowie Kühlung und trennen damit das Netzwerk von allen anderen Bereichen des Rechenzentrums. Diese Trennung erweist sich sowohl für die Planung als auch für den Betrieb als ineffizient und problematisch. Netzwerkverbindungen sind ein integraler Bestandteil der meisten Änderungsprozesse und werden auch bei allen Wartungsaktivitäten benötigt. Eine IT ohne Netzwerk ist nutzlos, sodass die Trennung praktisch keinen Sinn ergibt.
Ebenso führt eine horizontale Aufteilung zwischen physischen Ressourcen wie Kabel, Panels und Patches, aktiven Komponenten wie Switches und Router sowie logischen Elementen wie etwa VLAN-Tags zu Problemen bei der Planung und der Behebung von Störungen. Um diese zu vermeiden, sollte eine integrierte Managementlösung eine einheitliche Sicht auf alle Aspekte des Netzwerks bieten. Wichtig ist zudem eine Ende-zu-Ende-Konnektivität: Heute ist eine ständig wachsende Zahl von Endgeräten zu verwalten und zu überwachen. Diese befinden sich nicht mehr ausschließlich im Rechenzentrum oder in einem anderen Gebäude auf dem Campus. Vielmehr sind die Devices häufig über VPNs von Heimarbeitsplätzen aus verbunden. Diese Tatsache müssen alle Managementprozesse und entsprechenden Tools berücksichtigen. Eine hohe Ende-zu-Ende-Transparenz ist hier von entscheidender Bedeutung, um zahlreiche Endgeräte gemäß BYOD-Richtlinien zu unterstützen. Das erfordert eine vollständige Dokumentation aller Aspekte des Netzes, einschließlich sämtlicher Verbindungsoptionen und Knotenpunkte.
Ein Doppelgänger hilft
Mit dem digitalen Wandel wird das Management von Rechenzentren zu einer noch größeren Herausforderung, da die Komplexität durch hybride Infrastrukturen weiter steigt. Ein "digitaler Zwilling" oder ein virtuelles Abbild der Infrastruktur hilft dabei, mit diesen Veränderungen Schritt zu halten. Der digitale Zwilling unterstützt alle potenziellen und tatsächlichen physischen Anlagen, Netzwerke und Prozesse. Dies ermöglicht einen transparenteren Einblick in alle Rechenzentrumsstandorte. Durch die Verknüpfung der virtuellen und der physischen Welt in einem Live-Modell können Betreiber Daten analysieren und Systeme überwachen. Dadurch lassen sich die Raumverwaltung optimieren und Probleme entschärfen, bevor sie überhaupt auftreten.
Zudem sind Unternehmen mittels eines digitalen Zwillings in der Lage, Ausfallzeiten zu vermeiden, neue Geschäftsmöglichkeiten zu entwickeln und mithilfe von Simulationen genau für die Zukunft zu planen. Ein solches vollständiges Modell der Realität lässt sich für alle Arten von Analysen, Experimenten und Optimierungen verwenden. Im Gegensatz zur traditionellen Wenn-dann-Analyse auf Papier oder in Form von Tabellenkalkulationen können in der virtuellen Welt auch verschiedene Teams gleichzeitig mit dem Modell arbeiten. So sind echte Interaktionen und Abhängigkeiten sofort erkennbar.
Für eine vollständige Transparenz aller Komponenten im gesamten Unternehmen muss ein digitaler Zwilling sowohl die Geräte vor Ort als auch sämtliche Ressourcen in der Cloud, an Core- und Edge-Standorten sowie alle IT-, Netzwerk- und Gebäuderäume modellieren. Alle wichtigen Elemente und ihre Dokumentation sind über sämtliche Typen und Standorte hinweg zu harmonisieren. Ein Beispiel für ein Werkzeug zum Erstellen eines digitalen Zwillings ist die FNT Command Platform. Das Produkt stellt das notwendige Datenmodell bereit und bietet eine ganzheitliche Sicht auf alle Ressourcen im Rechenzentrum. Dies reicht von der Dokumentation des Gebäudes einschließlich der Facility-Ressourcen über das Management der gesamten hybriden Infrastruktur bis hin zur Abbildung der Anwendungs- und Serviceebene.
Zentrale für das Kapazitätsmanagement
Hybride Infrastrukturen erhöhen nicht nur die Komplexität für Betrieb und Planung, sondern auch für das Kapazitätsmanagement und Prognosen. Um valide Daten für diese Prozesse zu erhalten, gilt es, die Lücke zwischen den verschiedenen Betreibern und Elementen der hybriden Architektur zu überbrücken. Ein System-of-Record sollte in der Lage sein, konsolidierte und normalisierte Daten aus allen Bereichen zu liefern. Dadurch lassen sich Kapazitäten über alle Standorte und Technologien hinweg ordnungsgemäß verwalten. Ein gemeinsamer Satz validierter Daten für sämtliche Betriebs- und Planungsprozesse kann die Effizienz und Qualität verbessern. Denn nur so können alle Teams dieselben zuverlässigen Informationen nutzen und die vorhandene Dokumentation ständig automatisch aktualisieren und validieren. Dies reduziert den Aufwand für das manuelle Update der Dokumentation und die Neuplanung, da sie immer auf aktuellen Informationen beruht.
Unternehmen, die das Konzept des digitalen Zwillings bereits umgesetzt haben, können dieses System als zentrale Informationsquelle für ihre Analyseprozesse zur Überwachung und Prognose von Kapazitätsauslastung und Nachfrage nutzen. Firmen, die den digitalen Zwilling noch nicht einsetzen, müssen nach alternativen Tools suchen. Die meisten Data-Warehouse- oder Data-Lake-Systeme eignen sich hierfür nicht optimal, da die Daten nicht validiert und strukturiert sind. Dies verkompliziert die anschließende Analyse oder macht sie sogar unmöglich.
Da den meisten aktuellen DCIM-Lösungen entsprechende Datenmodelle für virtuelle Komponenten der hybriden Infrastruktur und das Konzept der Services fehlen, taugen sie auch nicht als alleinige Lösung. Um das Rechenzentrum mit der zugrundeliegenden Geschäftsstrategie in Einklang zu bringen, müssen alle Parameter transparent gemacht und analysiert werden. Dadurch lassen sich die für eine erfolgreiche Steuerung und Verwaltung des Rechenzentrumsbetriebs erforderlichen Kennzahlen ermitteln.
Zu beachten ist ferner, dass die Dashboards für verschiedene Benutzergruppen, einschließlich Personen mit wenig technischem Background, verwendbar sein sollten. Das Dashboard sollte daher die zentralen Informationen für ein breites Spektrum von Anwendern in einem benutzerfreundlichen Format und einer einfachen Präsentation bereitstellen können.
Serviceorientierter Rechenzentrumsbetrieb
Wichtig für den modernen Rechenzentrumsbetrieb ist der Übergang zu einem serviceorientierten Designkonzept. Betreiber sollten sich daher nicht auf einzelne, isolierte Geräte und technische Komponenten mit physischer Redundanz in einem konventionellen Bottom-up-Design konzentrieren. Vielmehr sind Wege notwendig, um sich am Markt durch zusätzliche Mehrwertdienste zu differenzieren. Dazu zählen umfassende SLA-Reporte, eine integrierte Strom- und Energiemessung, die nutzungsabhängige Abrechnung sowie eine erweiterte Konnektivität innerhalb einer Einrichtung oder über alle Standorte hinweg. Mit diesem Konzept lassen sich die Herausforderungen hybrider Umgebungen besser meistern.
Um die erforderlichen Rechenzentrumsressourcen zu beschaffen und die benötigten Dienste bereitzustellen, müssen die Betreiber ihre IT-, Netzwerk- und physische Infrastruktur detailliert planen. Zusätzlich benötigen sie eine vollständige Transparenz über alle Assets. Dies erfolgt idealerweise in einer zentralisierten Lösung für alle standardisierten Services und Servicekomponenten. Dies bildet die Grundlage für die Definition, das Management und die Überwachung aller Geschäftsanwendungen und Geräte über den gesamten Lebenszyklus. Durch die Standardisierung von Produkten und
deren Komponenten sollten sich alle produkt- und servicebezogenen Informationen in einer zentralen Datenbank zusammenführen lassen.
Fazit
DCIM-Systeme reichen heute oft nicht mehr aus, um die aktuellen Herausforderungen beim Management moderner Rechenzentren zu adressieren. HDIM-Tools bieten Unternehmen viele Vorteile: Sie können beispielsweise neue Services wesentlich schneller bereitstellen und Planungen signifikant beschleunigen. Zudem lässt sich der Zeitaufwand für Migrationen und Konsolidierungen deutlich verringern und das Risiko für geschäftsschädigende Ausfallzeiten auf ein Minimum reduzieren. So trägt HDIM im Ergebnis dazu bei, die IT-Gesamtbetriebskosten zu senken und die Rentabilität von Rechenzentren zu steigern.
(jp)
Oliver Lindner ist Data Center Optimization Evangelist bei der FNT GmbH.