Der Branchenanalyst Gartner will wegen des Broadcom-VMware-Debakels die Devirtualisierung als neuen Megatrend in der IT ausgemacht haben. Zurück zu echtem Blech lautet demnach die Devise, doch ganz so einfach ist es nicht: Zwar wird klassische Virtualisierung in den kommenden Jahren tatsächlich an Bedeutung verlieren, doch treten an ihre Stelle eher Container und Kubernetes. Gleichzeitig steckt in der Gartner-Analyse aber auch viel Wahres – wir untersuchen, wohin der Weg der Virtualisierung führt.
Das Jahr 2024 war in der IT von zahlreichen Aufregern geprägt und nur wenige Administratoren können das so gut bestätigen wie jene, zu deren Alltag Virtualisierung mit VMware gehört. Die Rede ist natürlich von der Übernahme VMwares durch Broadcom und den damit einhergehenden "Anpassungen" der Preisliste des Anbieters. Wobei Anpassungen hier zweifelsohne ein Euphemismus ist, denn mancherorts stieg die VMware-Rechnung um das Fünfzehnfache, weil Komponenten wie ESXi, die bisher kostenloser Bestandteil von vSphere und vCenter waren, plötzlich separat zu bezahlen sind.
Das hat vielerorts reges Treiben ausgelöst: Verzweifelte Administratoren, die gerade in KMUs durch die Eskapaden des Herstellers die Existenz des ganzen Unternehmens gefährdet sahen, suchten und suchen teils bis heute nach Alternativen – viele landen bei Proxmox, manche bei OpenStack. Alles gar nicht nötig, sagt nun aber das Analystenhaus Gartner und zeichnet ein Bild, in dem VMware-Kunden perspektivisch dazu übergehen, wieder stärker auf echtes Blech zu setzen und der bisher weit verbreiteten Virtualisierung den Rücken kehren. Devirtualisierung nennt Gartner den Trend und versieht ihn mit beeindruckenden Zahlen: Innerhalb der nächsten Jahre soll aus Devirtualisierung ein Multi-Milliarden-Dollar-Markt werden. Da stellt sich freilich die Frage: Was genau meint Gartner eigentlich, wenn von Devirtualisierung die Rede ist und ist die Theorie plausibel?
Aufgepasst bei Gartner
Bevor es um die Sache per se geht, ist es sinnvoll, sich zunächst mit Gartner selbst zu beschäftigen. Denn das Unternehmen nimmt in der IT mittlerweile eine andere Rolle ein, als es selbst gern behauptet. Eingangs war Gartner tatsächlich ein reiner Branchenanalyst, ein Unternehmen also, das die IT der Gegenwart sorgsam beobachtete und aus einzelnen Ereignissen ein kohärentes Bild zusammenzuzimmern versuchte, um IT-Entscheidern Leitlinien für Trends und neue Technologien an die Hand zu geben.
Das Jahr 2024 war in der IT von zahlreichen Aufregern geprägt und nur wenige Administratoren können das so gut bestätigen wie jene, zu deren Alltag Virtualisierung mit VMware gehört. Die Rede ist natürlich von der Übernahme VMwares durch Broadcom und den damit einhergehenden "Anpassungen" der Preisliste des Anbieters. Wobei Anpassungen hier zweifelsohne ein Euphemismus ist, denn mancherorts stieg die VMware-Rechnung um das Fünfzehnfache, weil Komponenten wie ESXi, die bisher kostenloser Bestandteil von vSphere und vCenter waren, plötzlich separat zu bezahlen sind.
Das hat vielerorts reges Treiben ausgelöst: Verzweifelte Administratoren, die gerade in KMUs durch die Eskapaden des Herstellers die Existenz des ganzen Unternehmens gefährdet sahen, suchten und suchen teils bis heute nach Alternativen – viele landen bei Proxmox, manche bei OpenStack. Alles gar nicht nötig, sagt nun aber das Analystenhaus Gartner und zeichnet ein Bild, in dem VMware-Kunden perspektivisch dazu übergehen, wieder stärker auf echtes Blech zu setzen und der bisher weit verbreiteten Virtualisierung den Rücken kehren. Devirtualisierung nennt Gartner den Trend und versieht ihn mit beeindruckenden Zahlen: Innerhalb der nächsten Jahre soll aus Devirtualisierung ein Multi-Milliarden-Dollar-Markt werden. Da stellt sich freilich die Frage: Was genau meint Gartner eigentlich, wenn von Devirtualisierung die Rede ist und ist die Theorie plausibel?
Aufgepasst bei Gartner
Bevor es um die Sache per se geht, ist es sinnvoll, sich zunächst mit Gartner selbst zu beschäftigen. Denn das Unternehmen nimmt in der IT mittlerweile eine andere Rolle ein, als es selbst gern behauptet. Eingangs war Gartner tatsächlich ein reiner Branchenanalyst, ein Unternehmen also, das die IT der Gegenwart sorgsam beobachtete und aus einzelnen Ereignissen ein kohärentes Bild zusammenzuzimmern versuchte, um IT-Entscheidern Leitlinien für Trends und neue Technologien an die Hand zu geben.
Längst ist Gartner in der gesamten Branche etabliert und Großkonzerne haben nicht selten Volumenverträge mit dem Anbieter, der den Abruf von Beratungsdienstleistung on demand möglich macht. Wer sich also zu aktuellen Trends informieren und ein Update zum Stand der Dinge bekommen möchte, ohne wochenlang selbst das Netz nach Informationen zu durchforsten, bucht ein Telefonat mit Gartner und ist danach auf dem aktuellen Stand.
Das Problem dabei: Jede Analyse einer Situation ist immer auch Interpretation. Gerade weil Gartner so verbreitet und so erfolgreich ist, spielt das Unternehmen längst nicht mehr nur eine Rolle als neutraler Beobachter. Stattdessen gilt heute, dass von Gartner identifizierte Trends erst dadurch in der IT an Bedeutung gewinnen. Das ist selbst dann so, wenn sich für das jeweilige Thema zuvor niemand interessiert hat. Gartner analysiert also längst nicht mehr nur Trends, sondern es erschafft sie zumindest mit. So ähnlich liegen die Dinge auch in Sachen Devirtualisierung, denn im Grunde hatte das Thema in der Branche kaum jemand auf dem Schirm, bis Gartner ein eigenes Thesenpapier veröffentlichte. Seither gewinnt Devirtualisierung aber zweifelsohne an Traktion.
VMware-Übernahme als Auslöser
Die Geschichte, die Gartner vorrangig in Form eines Analysepapiers [1] veröffentlicht hat, besagt, dass Broadcom nach der VMware-Übernahme die Preise dort so heftig erhöht habe, dass viele Unternehmen sich VMware schlicht nicht mehr leisten können. So sei in der Branche der allgemeine Bedarf an Alternativen entstanden. Und dabei suchen IT-Verantwortliche laut Gartner eben nicht nur nach Alternativen zu VMware, sondern auch nach Alternativen zum Prinzip der Virtualisierung an und für sich.
Nachdem VMware über Jahrzehnte den Markt dominiert habe, so die Theorie, besinnen sich viele Unternehmen heute wieder darauf, eher weniger potente Server zu beschaffen oder Ansätze wie Kubernetes mit Container-Virtualisierung auf Basis von Docker zu verwenden. Aktuell steht das Thema laut dem Branchenanalysten erst am Anfang, mit dem Erreichen des Hype Cycles sei in wenigen Jahren zu rechnen, und innerhalb der kommenden zehn Jahre könnte ein echter Massenmarkt für Alternativen zur klassischen Virtualisierung mit VMware & Co. entstanden sein. Der habe dann das Potenzial, Milliarden von Dollar pro Jahr umzusetzen.
Wie üblich bei Berichten von Gartner lesen sich die Thesen im Dokument eingängig und nachvollziehbar. Doch buchen IT-Verantwortliche Beratung von Gartner, um ohne tiefgreifendes Wissen der Materie Anhaltspunkte dafür zu bekommen, womit sie sich befassen sollten, liegt genau hier aber die Krux. Nur wer sich mit Virtualisierung umfassend auseinandergesetzt hat, vermag die Thesen von Gartner in der Realität einzuordnen und die Schwachstellen des Papiers zu erkennen. Derer gibt es indes einige, und klopfen wir diese nacheinander ab, entstehende ernste Zweifel am vom Gartner ausgerufenen Megatrend Devirtualisierung.
Bild 1: Die Container-Virtualisierung und Orchestrierung mit Kubernetes hat der klassischen Virtualisierung vielerorts längst das Wasser abgegraben.
Virtualisierung ist kein Allheilmittel
Auch wenn sich die Virtualisierung in den vergangenen 20 Jahren als De-facto-Standard im Rechenzentrum etabliert hat, hat der Ansatz längst nicht nur Fans. Kritiker bringen Bedenken auf verschiedensten Ebenen zum Ausdruck, so etwa Felix "Fefe" von Leitner in seinem Internetblog [2]. Von Leitner hat sich vor allem als Sicherheitsexperte einen Namen gemacht, und entsprechend fällt seine Kritik am Prinzip der Virtualisierung insgesamt aus: Trotz aller Bemühungen sei es weder den Hardwareanbietern noch den Autoren von Hypervisoren wie VMware oder KVM in den vergangenen Jahren gelungen, Virtualisierung wirklich sicher zu machen.
Das Horrorszenario aller Sicherheitsverantwortlichen ist dabei stets ein Durchbrechen der Barriere zwischen einer virtuellen Instanz und dem sie beheima- tenden Host. Gelingt ein solcher Ausbruch aus einer Instanz, kompromittieren Angreifer schlimmstenfalls nicht nur eine VM und den Host, sondern auch die anderen Instanzen auf demselben System. Und von Leitner ist mit dieser Ansicht nicht allein, auch andere Sicherheitsexperten haben in den vergangenen Jahren immer gefordert, solche Angriffe zu erforschen und Komponenten wie den Linux-Kernel aktiv auf entsprechende Bugs hin abzuklopfen.
Exploits für Schwachstellen, die einen Ausbruch ermöglichen, sind im Darknet für teils absurde Summen zu erwerben – insbesondere dann, wenn die Sicherheitslücke noch nicht öffentlich bekannt ist und Admins entsprechend keine adäquate Gegenwehr ergreifen können. Und gerade KVM, dem Standard-Open-Source-Hypervisor für Linux, eilt hier ein mehr als zweifelhafter Ruf voraus. Denn ab Werk kommt KVM mit diversen aktivierten Treibern und Schnittstellen zwischen Host und VM daher, die einen Einbruch erheblich erleichtern. Projekte wie L4 arbeiten daran, einen sicheren Hypervisor zu schaffen, konnten sich in der Breite bisher aber nicht durchsetzen.
Und dann gibt es da ja auch noch die Kategorie der Hardwarefehler, die regelmäßig bei der Paravirtualisierung eine große Rolle spielen. Anders als bei der Vollvirtualisierung erhalten virtuelle Instanzen bei der Paravirtualisierung direkten Zugriff auf einzelne Systemkomponenten wie die CPU, um Performance-Flaschenhälse auszuschließen. Das wird zum Problem, wenn eine Komponente wie der Prozessor selbst fehlerhaft ist – erinnert sei an Spectre und Meltdown. Beide Fehler lassen sich in betroffenen CPUs bis heute nur unter signifikanten Performance-Einbußen sinnvoll umschiffen. Auf die Mühlen von Experten wie von Leitner ist das freilich kaltes, klares Wasser und entsprechend fordern Experten seit Jahren, wieder verstärkt auf echtes Blech zu setzen.
Hinzu kommt, dass die Virtualisierung selbst große Mengen an Ressourcen verschlingt. Das mag in kleinen Setups nicht ins Gewicht fallen, in größeren Installationen mit Hunderten von Systemen aber schon. Gehen hier sechs bis zehn Prozent der verfügbaren CPU-Leistung und des verfügbaren Arbeitsspeichers für die Virtualisierung drauf, merkt das Controlling das durchaus. Auch dieser Punkt spricht also eigentlich eher gegen Virtualisierung.
Eine Frage des Budgets
Das alles vermag nicht darüber hinwegzutäuschen, dass sich der Trend hin zur Virtualisierung dank skalierbarer Plattformen und dem Cloud-Computing weiterhin verstärkt. Längst ist das Prinzip der Hyperkonvergenz gerade bei den Hyperscalern beliebt, das vorsieht, Compute und Storage auf denselben Systemen zu betreiben und so erhebliche Mengen an Blech, Strom und Kühlung einzusparen. Frei nach dem Motto "Gemacht wird, was Geld bringt" sind selbst Anbieter wie Red Hat oder IBM bei ihren Speicherkomponenten sukzessive vom Standpunkt abgerückt, hyperkonvergenter Speicher sei problematisch, also etwa der Betrieb des Objektspeichers Ceph auf denselben Systemen, auf denen auch die virtuellen Instanzen laufen, die Ceph konsumieren.
Selbst nach der Broadcom-Katastrophe im Hinblick auf VMware ist kaum davon auszugehen, dass sich die gesamte IT vom Prinzip der Virtualisierung verabschiedet. Mal ganz davon abgesehen, dass das es riesige Mengen an Kapital voraussetzen würde, um in neue Betriebskonzepte und die dazugehörende Technik zu investieren. Damit ist auch klar: Wer bisher umfassend auf das Prinzip der Virtualisierung setzt, wird dieses Setup auf absehbare Zeit betreiben. Insofern darf Gartners Report durchaus als ein Fingerzeig in die Zukunft gelten, was im Übrigen der zeitliche Horizont stützt, den die Analysten der Devirtualisierung geben. Denn die Dekade, die Gartner annimmt, bis sich der Trend der Devirtualisierung als Massenmarkt lohnt, ist ungewöhnlich lang für die üblichen Maßstäbe der Analysten.
Bild 2: Prozessoren des Typs "ARM Ampere Altera" existieren schon seit Jahren, finden mittlerweile aber vielerorts Befürworter, weil sie weniger Strom benötigen als vergleichbare Systeme mit Intel-CPU.(Quelle: Anandtech)
Zu enge Definition der Virtualisierung
Im Gartner-Bericht fällt schnell auf, dass die Analysten neben dem VMware-Thema den Einsatz von Containern und Kubernetes als weiteren Hauptgrund dafür ausmachen, dass Devirtualisierung zum Trend werden könnte. Moment mal, mag mancher Admin an dieser Stelle denken, fallen diese Technologien nicht auch unter den Oberbegriff der Virtualisierung? Regelmäßig ist in diesem Kontext jedenfalls von "Containervirtualisierung" die Rede. Hier prallt die Welt der klassischen Voll- und Paravirtualisierung auf die derjenigen, die auch moderneren Ansätzen wie Containern durchaus die Eigenschaft der Virtualisierung zusprechen.
Doch technisch haben die Konzepte bis auf einige wenige grundsätzliche Annahmen nicht viel gemein. Die klassische Voll- oder Paravirtualisierung setzt stets auf einen Hypervisor, also eine verwaltende Instanz direkt auf dem Blech, die den Zugriff der virtuellen Gäste auf die Hardware steuert und reguliert. Jeder Gast ist eine eigenständige Instanz mit eigenem Betriebssystem und meist auch eigenem BIOS. Container hingegen nutzen den Kernel des Host-Systems und greifen auf dessen spezifische Funktionen zurück, um eine logische Aufteilung auf der Applikationsebene herbeizuführen. Im Linux-Kernel sind das für Docker & Co. vor allem Namespaces und Control Groups alias CGroups. Ein Container hat ein virtuelles Dateisystem, einen eigenen virtuellen Netzwerkstack, eigene virtuelle Volumes und eigene Namespaces für User-, Gruppen- und Prozess-IDs. Einen Hypervisor im klassischen Sinne gibt es hier also nicht.
Doch der Gartner-Report bezieht sich vor allem auf die klassische Definition der Virtualisierung und sieht Container samt Kubernetes als valide Alternative zu dieser, ungeachtet der Tatsache, dass in den Augen der meisten Beobachter auch Container eine Form der Virtualisierung darstellen. Freilich wäre diese Differenzierung für Clickbait nicht so gut geeignet wie das Schlagwort der "Devirtualisierung", worin ein Grund für die reißerische Aufmachung des Berichts liegen dürfte. Gehen wir hingegen davon aus, dass auch Container Virtualisierung sind, bleibt von Devirtualisierung nicht mehr allzu viel übrig.
Wo sich Devirtualisierung abzeichnet
Völlig auf dem Holzweg sind die Gartner-Analysten aber nicht, das zeigt sich im Report bezüglich der Devirtualisierung auch im Hinblick auf moderne Themen wie Green IT oder energieeffiziente Systeme. Kaum ein Faktor spielt im RZ der Gegenwart eine so große Rolle wie der Stromverbrauch. Denn Energie ist teuer und eine der effizientesten Stellschrauben, um die Kosten eines laufenden Setups zu reduzieren. Obendrein sind mit der Frage nach der Stromaufnahme einer Installation andere Faktoren unmittelbar verbunden. Systeme, die viel Strom verbrauchen, produzieren beispielsweise auch viel Abwärme, um die sich der RZ-Betreiber dann in Form effizienter (und wieder energieintensiver) Kühlung kümmern muss.
Oft ist im RZ Strom sogar der limitierende Faktor und vielerorts sind ganze Racks im RZ leer, weil die IT theoretisch zwar noch Server installieren könnte, für diese dann aber kein Strom hätte. Auch dieser Umstand hat mit der Virtualisierung zu tun, denn diese ist als Prinzip ja vor allem deshalb so erfolgreich, weil sie moderne Hardwaremonster sinnvoll mit mehreren Aufgaben nutzbar macht. Wer nicht gerade Tomcat oder ähnliche Software betreiben will, lastet einen aktuellen Server mit etlichen CPU-Kernen, 1 TByte RAM und diversen anderen Annehmlichkeiten mit nur einem einzelnen Dienst nicht sinnvoll aus. Das Gros der IT-Verantwortlichen betreibt jedoch weder Tomcat noch Jboss, sondern einen Webserver mit der einen oder anderen Skriptsprache im Hintergrund. Derart kleine Setups sind kaum in der Lage, eine fette Wuchtbrumme im modernen Rechenzentrum auch nur ins Schwitzen zu bringen. Packt der Admin aber viele solcher Instanzen auf ein Blech, wird ein Schuh daraus.
Die Hardwareentwicklung indes steht nicht still und längst haben Hersteller das Thema der "Green IT" für sich entdeckt. Dass ARM beispielsweise alles andere als Unsinn ist, beweist Apple seit Jahren mit seinen M-Chips, die für alltägliche Aufgaben ihren vorherigen Intel-Pendants in nichts nachstehen, dabei aber nur einen Bruchteil des Stroms verbrauchen, kaum Abwärme produzieren und so für lange Akkulaufzeiten insbesondere bei Notebooks sorgen. Und längst ist ARM auch im Servermarkt angekommen und es finden sich überall Server mit ARM-CPUs in den verschiedensten Bauformen.
Das geht teilweise so weit, dass in herkömmliche vier Höheneinheiten acht einzelne Einschübe passen, die im klassischen Sinne eigene Server darstellen. Und trotzdem brauchen eben diese Geräte noch immer nur einen Bruchteil des Stroms, den ein leistungsstarker Xeon- oder EPYC-Server beansprucht. Hier ist der Betrieb klassischer Virtualisierung praktisch überflüssig, weil die Performance eines einzelnen Moduls der Leistung entspricht, die die laufende Software tatsächlich abruft.
Selbst der KI-Trend vermag daran vorerst nichts zu verändern. Insbesondere Nvidia hat sich längst darauf eingestellt, dass die Nachfrage nach Machine Learning und damit nach hochpotenten GPUs kontinuierlich steigt. Alternativ zu den entsprechenden GPU-Karten bietet Nvidia mittlerweile auch GPU-as-a-Box an (Nvidia DGX-Reihe). Das ist zwar im Prinzip auch nur ein fertiger Server mit fetter GPU, kommt aber mit umfassender Software daher, um die GPUs im lokalen Netz zu verteilen.
Sollen die eigentlichen Server letztlich nur der KI Aufgaben zu- oder deren Ergebnisse ausspielen, reichen auch hierfür ARM-Systeme aus, die dann nicht mehr zwingend virtualisiert sein müssen. Indirekt hat Gartner hier also durchaus zu Recht die Vermutung, dass im KI-Umfeld Voll- oder Paravirtualisierung nicht mehr als feste Größe automatisch gesetzt sind. Sehr wohl aber die Container-Virtualisierung, denn die meisten Frameworks für KI setzen heute auch darauf. CI/CD-Werkzeuge wie PipeCD oder ArgoCD, die sich auch im KI-Kontext nutzen lassen, legen davon eindrucksvoll Zeugnis ab.
Fazit
Was also bleibt von der Gartner-Analyse letztlich übrig? Zunächst: Das Thema Devirtualisierung ist tatsächlich eines, doch die meisten Unternehmen, die im Augenblick nach VMware-Alternativen suchen oder diese in den vergangenen Monaten erfolgreich implementiert haben, haben bewusst eine Voll- oder Paravirtualisierung gewählt. Vielerorts geben die Setups auch gar nichts anderes her. Eine beliebige Anwendung lässt sich schließlich nicht mal eben vom konventionellen Betrieb in einer VM auf den Betrieb im Container umrüsten.
Wer in der IT Verantwortung für Entscheidungen trägt, sollte sich das Gartner-Pamphlet nichtsdestotrotz genauer zu Gemüte führen. Denn völlig zu Recht merken seine Autoren an, dass es hier um eine eher langfristige Entwicklung geht, weg von klassischer Virtualisierung und hin zur Virtualisierung auf Basis von Containern. Tatsächlich ist Virtualisierung auf Basis von KVM oder VMware in einer Kubernetes-Umgebung keine zwangsläufig nötige Komponente mehr. Die Unart vielerorts, Kubernetes-Compute-Knoten zu virtualisieren, um mehr davon auf ein Blech zu kriegen, mag für Plattformen noch etwas Sinn ergeben, die Workloads verschiedener Kunden auf dieselbe Hardware quetschen müssen. Wer aber alle Systeme einer Umgebung exklusiv unter der eigenen Kontrolle hat, vergeudet nur wertvolle Ressourcen, wenn er unnötig auf Voll- oder Paravirtualisierung setzt. Denn das kann Kubernetes selbst mittlerweile deutlich besser, und zwar auch über die Grenzen einzelner Hardwareknoten hinweg.
Gerade weil hohe Effizienz und viel Leistung pro Watt im RZ relevante Kenngrößen sind, ist solch eine Verschwendung heute nur noch schwer zu rechtfertigen. Gut möglich, dass in zehn Jahren ab heute ein klassisches Rack im Rechenzentrum eher aus vielen ARM-basierten Servern mit geringer Leistungsaufnahme und wenig Abwärme besteht, während Aufgaben wie KI von zentralen Systemen abgearbeitet und dann zum Ausspielen weitergereicht werden. Auch dabei ist es schwierig, sich für klassische Virtualisierung einen Einsatzzweck vorzustellen.
Dass Gartner nicht ganz falschliegt, belegt überdies de facto auch Broadcoms massive Preiserhöhung für Produkte von VMware. Frei nach dem Motto "die Kuh melken, solange sie noch Milch gibt" will Broadcom schnell in die Gewinnzone mit VMware. Die allerdings ist auf lange Sicht deutlich kleiner, als es bisher der Fall war, denn klassische Virtualisierung gilt heute weitgehend als "Feature complete". Und hart umkämpft ist der Markt auch noch. Perspektivisch wird es für Broadcom also nicht leichter, Geld zu verdienen. Und lesen wir den Gartner-Report mit diesem Detail im Hinterkopf, erscheinen einige Sätze darin durchaus als Fingerzeig hinsichtlich ebendieser Tatsache.