VDI ist mittlerweile auf einem Siegeszug in der Unternehmens-IT und immer mehr IT-Fachkräfte müssen sich deshalb mit der Frage beschäftigen, wie sich die Vorteile der Technologie optimal nutzen und wie sich virtuelle Umgebungen erfolgreich managen lassen. Ein zentraler Punkt ist dabei das Change-Management, das erfordert, Upgrades und Patches des Client-OS und der Applikationen genau zu planen und zu testen.
Das Personal Computing brachte eine Revolution mit sich und Computer erstmals in die heimischen vier Wände. In Unternehmen verlagerte es die Rechenkapazitäten aus raumfüllenden Rechnerschränken unter die Schreibtische. Einerseits wurde der Einsatz von Computertechnologie immer selbstverständlicher und eröffnete völlig neue Arbeitsweisen, andererseits brachte die Entwicklung auch neue Herausforderungen mit sich: IT-Abteilungen mussten fortan eine immer unübersichtlichere Landschaft von Endpunkten managen.
Die grundsätzliche Idee der Virtualisierung bestand schon seit den frühesten Tagen des Computerzeitalters, doch seit den 1990er-Jahren war sie der Hoffnungsträger, der versprach, das teilweise unüberschaubar komplex gewordene IT-Management wieder zu vereinfachen. Nach verschiedenen Ansätzen zur zentralen Bereitstellung von Applikationen und Desktops durch Virtualisierung war dann das Aufkommen von Virtual Desktop Infrastructure (VDI) Mitte der 2010er-Jahre einschneidend und wegweisend.
VDI betritt die Bühne
Der Begriff Virtual Desktop Infrastruc-ture beschreibt das Hosten von Desktopumgebungen auf einem zentralen Server. Zusätzlich wird der Begriff gemeinhin oft auch für das Hosten und die zentrale Bereitstellung von Anwendungen gebraucht. De facto lassen sich virtuelle Desktops und Applikationen den Nutzern zentral, sicher und schnell über ein Netzwerk auf den verschiedensten Endgeräten bereitstellen. Early Adopter waren vor allem solche Branchen, denen ein Maximum an Effizienz und Verfügbarkeit bei gleichzeitig hohem Kostendruck abverlangt wird. Aktuell vollzieht sich der nächste konsequente Schritt: VDI aus der Cloud. Natürlich sind virtuelle Maschinen in der Cloud absolut nichts Neues. Neu aber ist, dass die großen Hyperscaler mittlerweile auch auf den Plan treten und sich des Themas VDI annehmen.
Das Personal Computing brachte eine Revolution mit sich und Computer erstmals in die heimischen vier Wände. In Unternehmen verlagerte es die Rechenkapazitäten aus raumfüllenden Rechnerschränken unter die Schreibtische. Einerseits wurde der Einsatz von Computertechnologie immer selbstverständlicher und eröffnete völlig neue Arbeitsweisen, andererseits brachte die Entwicklung auch neue Herausforderungen mit sich: IT-Abteilungen mussten fortan eine immer unübersichtlichere Landschaft von Endpunkten managen.
Die grundsätzliche Idee der Virtualisierung bestand schon seit den frühesten Tagen des Computerzeitalters, doch seit den 1990er-Jahren war sie der Hoffnungsträger, der versprach, das teilweise unüberschaubar komplex gewordene IT-Management wieder zu vereinfachen. Nach verschiedenen Ansätzen zur zentralen Bereitstellung von Applikationen und Desktops durch Virtualisierung war dann das Aufkommen von Virtual Desktop Infrastructure (VDI) Mitte der 2010er-Jahre einschneidend und wegweisend.
VDI betritt die Bühne
Der Begriff Virtual Desktop Infrastruc-ture beschreibt das Hosten von Desktopumgebungen auf einem zentralen Server. Zusätzlich wird der Begriff gemeinhin oft auch für das Hosten und die zentrale Bereitstellung von Anwendungen gebraucht. De facto lassen sich virtuelle Desktops und Applikationen den Nutzern zentral, sicher und schnell über ein Netzwerk auf den verschiedensten Endgeräten bereitstellen. Early Adopter waren vor allem solche Branchen, denen ein Maximum an Effizienz und Verfügbarkeit bei gleichzeitig hohem Kostendruck abverlangt wird. Aktuell vollzieht sich der nächste konsequente Schritt: VDI aus der Cloud. Natürlich sind virtuelle Maschinen in der Cloud absolut nichts Neues. Neu aber ist, dass die großen Hyperscaler mittlerweile auch auf den Plan treten und sich des Themas VDI annehmen.
Die technische Weiterentwicklung und der verstärkte Trend zum dezentralen Arbeiten haben VDI aktuell großflächig salonfähig gemacht. Die Möglichkeiten, die VDI-Arbeitsplätze eröffnen, zeigten sich unter dem Druck der Corona-Krise überdeutlich: Ob für eine schnelle Umsetzung von Homeoffice-Arbeitsplätzen oder die Realisation längerfristiger Business-Continuity-Strategien – der Bedarf an VDI ist durch die Krise noch einmal enorm gestiegen.
Nutzen und Herausforderung von VDI
Im Gegensatz zum Großteil vorheriger Virtualisierungsansätze setzt VDI auf das maximale Outsourcen der Rechenleistung, was den Endpunkt nahezu vollständig entlasten kann. Nutzern lässt sich so einfacher denn je die Freiheit gewähren, das Gerät ihrer Wahl einzusetzen und gleichzeitig alle Ressourcen, Anwendungen und Dateien zentral zu managen. Alles bleibt aktuell und innerhalb des gesicherten Unternehmensnetzwerks. Unternehmen können so zum Beispiel Hardware länger einsetzen, was einen klaren Gewinn für die Unternehmens- und Umweltbilanz bedeutet. Neuinvestitionen fallen um ein Vielfaches geringer aus, da Endgeräte quasi kaum Leistung benötigen. Auch Legacy-Applikationen lassen sich wesentlich einfacher und sicherer weiterbetreiben.
So überzeugend alle genannten Argumente für Geschäftsentscheider und IT-Abteilungen auch sind, sollten VDI-Projekte nicht auf die leichte Schulter genommen werden. Unter der Abstraktionsschicht der einzelnen virtuellen Desktops liegt nach wie vor eine elaborierte Kombination aus Hard- und Software, die unter anderem CPU, GPU, Datenablage, Arbeitsspeicher, Hypervisoren und Clients vereint. Selbst wenn die Rechenleistung aus dem Rechenzentrum eines externen Dienstleisters, wie eines Managed Service Provider oder eines der Hyperscaler, kommt, bleiben das komplexe Geflecht aus Applikationen und Betriebssystemen sowie das richtige Sizing zu berücksichtigen. Je komplexer die Abhängigkeiten sind, desto gravierender wirken sich selbst kleine Änderungen aus. All das macht Change-Management in virtuellen Umgebungen noch entscheidender, als es zuvor schon in klassischen IT-Landschaften der Fall war.
Bild 1: Ein Dashboard mit einer Übersicht der laufenden Tests und wichtigen Metriken ermöglicht ein vorausschauendes Monitoring der VDI-Umgebung in Echtzeit.
Change-Management wird zunehmend schwieriger
Bei den immer kürzer werdenden Update-Zyklen wird die Administration von VDI zur Herausforderung. Über 75 Prozent der Unternehmen möchten den – unter anderem von Microsoft empfohlenen – Semi-Annual-Update-Modus nutzen, um Sicherheits- und Funktionsaspekten Rechnung zu tragen. Hinzu kommen diverse Updates und Sicherheitspatches anderer eingesetzter Applikationen. Zu den typischen Änderungen, die VDI-Umgebungen durchlaufen, gehören unter anderem:
- Neue oder aktualisierte Betriebssysteme beziehungsweise Patchveröffentlichungen, deren Häufigkeit besonders unter Windows 10 deutlich zugenommen hat.
- VDI-bezogene Änderungen an der Software-Infrastruktur (End-User-Layer und Hypervisor).
- Updates und Upgrades der Kernanwendungen eines Unternehmens.
- Sicherheitsupgrades aufgrund von Bedrohungen wie beispielsweise Spectre, Meltdown oder L1TF.
- Hardware- oder Konfigurationsänderungen und Firmware-Revisionen.
- Upgrades von Arbeitsspeicher, Speicherplatz oder GPUs.
Im Jahr 2010 bedeutete dies in der Regel noch vier Updates pro Jahr und Anwendung. Eine Zahl, die Ende 2020 schätzungsweise bei 120 liegen wird. Laut Umfragen benötigen aber über 60 Prozent der Unternehmen aufgrund der Komplexität ihrer Systeme länger als sechs Monate, um die Stabilität und Verfügbarkeit eines einzigen Updates in der VDI-Umgebung zu gewährleisten. Kleinste Veränderungen können in komplexen virtualisierten Umgebungen weitreichende Folgen haben: Ein vermeintlich kleines Update zieht so schlimmstenfalls den Ausfall des gesamten Systems nach sich. Anhand einer vielzitierten Studie des Ponemon Instituts von 2013 kann man bei großen Unternehmen, konservativ geschätzt, von etwa 5000 Euro Kosten pro Minute Systemausfall einer VDI-Umgebung ausgehen. Und die Auswirkungen, die ein schlechter Ruf in Sachen Ausfallsicherheit oder IT-Sicherheit generell mitbringt, ließen sich rein monetär gar nicht beziffern.
Drei zentrale Aspekte des Change-Managements
In der heutigen IT-Welt ist es wichtiger denn je, den Wandel aktiv zu gestalten. Updateprozesse sollten soweit möglich automatisiert ablaufen. Bestenfalls informiert das System proaktiv über Performanceprobleme, damit sich diese zeitnah beheben lassen. Vorausschauende Tests der Auswirkungen von Systemänderungen spielen hier eine Schlüsselrolle. Dabei sollten Administratoren besonders drei Punkte im Blick behalten: Das Verfügbarkeitsmanagement umfasst die Fähigkeit einer IT-Funktion, im Laufe der Zeit auf einem vereinbarten Niveau zu arbeiten. Dies sollte beim Hinzuziehen eines externen Anbieters im Service Level Agreement (SLA) zwischen IT-Dienstleister und Kunden festgehalten und durch dieses garantiert werden. Aspekte wie Zuverlässigkeit (funktioniert der Dienst?) und Belastbarkeit (kann der Dienst Änderungen/Ausfälle überstehen?) sind Schlüsselkomponenten des Verfügbarkeitsmanagements.
Als zweiter Punkt betrachtet das Kapazitätsmanagement die Balance zwischen Geschäftsanforderungen und IT-Dienstleistungen. Dazu gehören Aktivitäten wie die IT-Kapazitätsplanung und die Dimensionierung der IT-Infrastruktur. Vorhandene Ressourcen müssen im Hinblick auf Kosten und Prioritäten bestmöglich eingesetzt werden.
Schließlich bedeutet Service-Continuity-Management sicherzustellen, dass die IT-Dienste trotz eines wachsenden und sich beschleunigenden Stroms von (geplanten) Änderungen oder möglichen Zwischenfällen weiterhin wie erwartet erbracht werden können. Der Schwerpunkt dieser Disziplin liegt nicht nur auf Wiederherstellungsmaßnahmen, sondern mehr und mehr auf proaktiven Aktivitäten, da die Verhinderung von Unterbrechungen eindeutig der effektivste Weg ist, um zu einer soliden Geschäftskontinuität beizutragen.
Bild 2: Mit Continuity-Tests über längere Zeiträume lassen sich längerfristige Trends in der Performance der VDI-Umgebung identifizieren.
Realistisch testen
Besonders für die Punkte Kapazitäts- und Service-Continuity-Management sollten IT-Verantwortliche unbedingt unter realitätsnahen Bedingungen mit realen Work-loads testen, die das tatsächliche Tagesgeschäft widerspiegeln. Am sinnvollsten ist es, die Produktivumgebung zu spiegeln und mit synthetischen Usern, die sich wie reale Anwender verhalten, zu testen. Die in der Simulation auftretenden Probleme sind damit vor dem Entstehen behebbar. Erst wenn die Testergebnisse den Service-Level-Vorgaben entsprechen, werden die zu implementierenden Patches ausgerollt.
Dies ist mit den "klassischen" Methoden, die Hersteller diverser VDI-Lösungen mitliefern, nur reaktiv möglich. Auswirkungen auf den Produktionsbetrieb durch geplante Änderungen, Updates oder neue Applikationen lassen sich damit nicht simulieren. Tests mit synthetischen Usern dagegen sind sehr präzise. Sie erlauben daher auch sehr zuverlässig, die allmähliche Verschlechterung der Anwendungsleistung, der ein produktives System unterliegt, zu erkennen und vorherzusagen. Oder liefern Hinweise auf ein Problem einer anderen Infrastruktur-Ressource.
Diese Art von Tests wiederholen alle zehn Minuten einen kompletten Endnutzer-Workflow, wobei jeder Schritt des Workflows in Millisekunden gemessen wird. Auf diese Weise lässt sich jede noch so kleine Auswirkung erkennen und analysieren. Die Extrapolation der Messungen erlaubt die Vorhersage des genauen Zeitpunkts, ab dem die tatsächlichen Benutzer betroffen sein werden. Auf diese Weise zeigen sich allmähliche Performance-Probleme, bevor sie überhaupt vom Endnutzer bemerkt werden und die Produktivität verlangsamen oder sogar die Geschäftskontinuität stören können. Indem mit simulierten Benutzern Leselasttests erfolgen, lassen sich Szenarien testen, die zwar nicht sehr typisch, aber zum Beispiel für Disaster-Recovery-Planungen relevant sind.
Moderne Monitoringwerkzeuge müssen es Administratoren also ermöglichen, stets den Überblick über den Betriebsstatus der IT-Infrastruktur zu behalten. Solche Lösungen melden zum Beispiel proaktiv Probleme auf Nutzerseite inklusive Screenshots des Vorfalls an den Administrator und geben über Dashboard-Ansichten die wichtigsten Parameter auf einen Blick wieder, sodass Administratoren nicht erst umständlich den Fehler im Dialog mit dem User nachstellen müssen.
Vollautomatisierte Tests für die geplanten Use Cases, wie sie etwa LoginVSI [1] bietet, machen manuelle Testverfahren nahezu überflüssig. Nicht nur beim Budget, sondern auch beim zeitlichen Rahmen für Projekte lässt sich mit automatisierten Tests jede Menge einsparen. Projekte können so wesentlich früher zum Abschluss geführt werden. Außerdem arbeiten Mitarbeiter von Tag eins mit einer funktionierenden Lösung. Mitarbeiterzufriedenheit ist heute ein strategisch wichtiger Faktor, um gut geschulte Arbeitskräfte im Unternehmen zu halten. Das zählt auch aus Sicht von IT-Verantwortlichen zu den obersten Prioritäten.
Fazit
Das Change-Management in VDI-Umgebungen will vom IT-Verantwortlichen genau geplant sein und sollte auf umfangreiches Monitoring und automatisierte Tests aufsetzen. Denn der virtuelle Desktop als Arbeitsumgebung erfordert eine zuverlässige Verfügbarkeit und wenige Ausfälle. Dies führt zu zufriedeneren Mitarbeitern – die genauso wie die VDI-Technologie zentrale Faktoren für den Unternehmenserfolg sind.