ADMIN

2025

07

2025-06-29T12:00:00

Hybrid Cloud

SCHWERPUNKT

093

Datenmanagement

Multi-Cloud

Kubernetes

Datenmanagement in hybriden Kubernetes-Umgebungen

Die volle Ladung

von Markus Grau

Veröffentlicht in Ausgabe 07/2025 - SCHWERPUNKT

Viele Firmen stehen vor der Herausforderung, traditionelle VM-Umgebungen in moderne, Kubernetes-basierte Plattformen zu überführen. Dabei sind nicht nur Workload-Migration und Container-Orchestrierung entscheidend, sondern auch die richtige Speicherstrategie für hybride MultiCloud-Szenarien. Der Artikel beleuchtet, wie Admins zukunftsfähige Dateninfrastrukturen gestalten können.

Unternehmen wollen Daten effizient speichern und sicher in verschiedenen Umgebungen nutzen: ein Multi-Hybrid-Ansatz, der On-Premises und Public Cloud kombiniert. Die hybride Cloud ist inzwischen fest etabliert. Organisationen schätzen die Flexibilität einer Mischung aus öffentlichen und privaten Clouddiensten, um die optimale Umgebung für verschiedene Workloads und die Vorteile eines Cloudbetriebsmodells zu nutzen.
Moderne Workloads stoßen jedoch an die Grenzen von Legacy-Implementierungen und -Ansätzen. Vorausschauende IT-Entscheider stellen sich deshalb die Frage, wie sie heutige Anforderungen erfüllen und eine Infrastruktur aufbauen können, die skalierbar ist und die Geschäftsanforderungen der kommenden Jahre unterstützt.
Umbruch bei der Virtualisierung
Virtualisierung ist hier eine Schlüsseltechnologie, aber der durch die Übernahme von VMware durch Broadcom ausgelöste Umbruch zwingt viele dazu, ihre Pläne zu überdenken. Broadcom hat die Lizenzierung von VMware-Produkten umgestaltet, wobei unbefristete Lizenzen durch ein Abonnement-basiertes Modell ersetzt und CPU-Core-basierte Lizenzierungsmodelle eingeführt wurden. Viele IT-Verantwortliche müssen sich nun mit den neuen Lizenzbedingungen auseinandersetzen.
Unternehmen wollen Daten effizient speichern und sicher in verschiedenen Umgebungen nutzen: ein Multi-Hybrid-Ansatz, der On-Premises und Public Cloud kombiniert. Die hybride Cloud ist inzwischen fest etabliert. Organisationen schätzen die Flexibilität einer Mischung aus öffentlichen und privaten Clouddiensten, um die optimale Umgebung für verschiedene Workloads und die Vorteile eines Cloudbetriebsmodells zu nutzen.
Moderne Workloads stoßen jedoch an die Grenzen von Legacy-Implementierungen und -Ansätzen. Vorausschauende IT-Entscheider stellen sich deshalb die Frage, wie sie heutige Anforderungen erfüllen und eine Infrastruktur aufbauen können, die skalierbar ist und die Geschäftsanforderungen der kommenden Jahre unterstützt.
Umbruch bei der Virtualisierung
Virtualisierung ist hier eine Schlüsseltechnologie, aber der durch die Übernahme von VMware durch Broadcom ausgelöste Umbruch zwingt viele dazu, ihre Pläne zu überdenken. Broadcom hat die Lizenzierung von VMware-Produkten umgestaltet, wobei unbefristete Lizenzen durch ein Abonnement-basiertes Modell ersetzt und CPU-Core-basierte Lizenzierungsmodelle eingeführt wurden. Viele IT-Verantwortliche müssen sich nun mit den neuen Lizenzbedingungen auseinandersetzen.
Tatsächlich hat die Übernahme viele Unternehmen dazu veranlasst, ihre Virtualisierungsstrategie anzupassen und nach alternativen Plattformen zu suchen – ein Haupttreiber für VM-Migrationen. IT-Abteilungen prüfen verschiedene Anbieter, haben jedoch vielfach erkannt, dass VMware nicht umsonst ein Branchenführer mit einer etablierten Erfolgsbilanz ist. Und auch mögliche Alternativen bergen das Risiko von Inflexibilität und Lock-in, ganz zu schweigen von Tools, die nicht so robust sind.
Bild 1: Die meisten Unternehmen verfolgen bei Ihren Cloud-Workloads eine hybride Strategie. (Quelle: Pure Storage)
Kubernetes immer beliebter
Daten und Anwendungen sind oft tief in die bestehende Infrastruktur eingebettet und viele Firmen wollen sie dort behalten, wo sie sind – sie zu verschieben gilt oft als zeitaufwendig, riskant und kostspielig. Laut dem "Portworx Voice of Kubernetes Report" [1] betreiben die meisten Umfrageteilnehmer (86 Prozent) ihre cloudbasierten Anwendungen in öffentlichen und privaten Cloudumgebungen, wobei größere Unternehmen eher einen massiveren Fußabdruck in eigenen Rechenzentren haben. Das Vorhalten von Applikationen in hybriden Umgebungen, seien es VMs oder Container, gibt die nötige Flexibilität, um Anwendungen in großem Umfang zu betreiben.
Allerdings können hybride Clouds die Dinge auch verkomplizieren. Für Plattformteams kann es schwierig sein, sicherzustellen, dass die Workloads ihrer Entwickler über verschiedene Plattformen hinweg konsistent und kompatibel sind. Der Wechsel zum cloudnativen Modell ist ebenfalls von Bedeutung: Laut dem Portworx-Bericht planen 85 Prozent der Befragten, die meisten ihrer VM-Workloads in die cloudnative Umgebung zu verlagern. Sie erwarten sich davon eine bessere Skalierbarkeit, mehr Leistung, die einfachere Verlagerung von Workloads und eine generelle Modernisierung.
Viele Unternehmen haben Kubernetes bereits im Einsatz oder planen dies – als moderne Umgebung, die sowohl virtuelle Maschinen (VMs) als auch Container in einem Hybrid-Cloud-Setting unterstützt. Die Plattform hat sich zum De-facto-Standard für die Container-Orchestrierung entwickelt. Der Ansatz ermöglicht es, eine einheitliche Plattform zu nutzen, um ihre cloudnative Anwendungsentwicklung und ihre Infrastrukturmodernisierung voranzutreiben.
In diesem Zusammenhang ist es wichtig, die Lücke zwischen traditionellem VM- und nativem Container-Betrieb zu schließen. Dies erfordert die Migration von Legacy-Anwendungen von VMware-VMs zu Kubernetes. Die Speicheranforderungen für Kubernetes sind jedoch durchaus komplex.
Die Wahl der Speicherstrategie
Laut dem Portworx-Bericht entscheiden sich die meisten Unternehmen (97 Prozent) dafür, datenintensive Workloads auf cloudnativen Plattformen auszuführen. Wichtige Anwendungen wie Datenbanken (72 Prozent), Analysen (67 Prozent) und KI/ML-Workloads (54 Prozent) laufen inzwischen auf Kubernetes.
Während Organisationen Kubernetes also oft zur Modernisierung ihrer Infrastruktur einsetzen, fragen sich viele, ob VMs in einer Kubernetes-nativen Welt zuverlässig laufen können. In Anbetracht der zunehmenden Reife von Kubernetes können sie das – aber dazu ist eine moderne, Container-native Infrastruktur erforderlich. Statt auf Komplettangebote zu setzen, bei denen Rechenleistung und Speicher fest miteinander verbunden sind, sollte die IT den Speicher separat verwalten. Eine zentralisierte, Kubernetes-kompatible Speicherplattform erhöht die Flexibilität, verbessert die Skalierbarkeit, macht Kosten planbarer und legt den Grundstein für eine zukunftssichere Infrastruktur.
Eine moderne Infrastruktur ist das Fundament für dynamische Plattformen, die etwa mit den sich ändernden Anforderungen von Entwickler-Workloads umgehen können. Dies bedeutet, dass cloudnative Plattformen zentral verwaltet werden müssen, indem Container- und VM-Verwaltung zusammenfinden. Ziel ist es, den zusätzlichen Aufwand für die Verwaltung verschiedener Plattformen zu vermeiden und dieselben Anforderungen an die Datenverwaltung für VMs und Container zu unterstützen.
VMs in Kubernetes betreiben
Engineering-Teams entwickeln Self-Service-Tools, Services und Prozesse, um Kubernetes-Plattformen als moderne Entwicklerumgebung bereitzustellen. Die Teams planen und entwickeln neue Anwendungen in Containern, die auf Kubernetes laufen. Um hier einen modernen Ansatz zu verfolgen, müssen IT-Abteilungen jedoch Verfügbarkeit, Portabilität, Integrationen und Sicherheit berücksichtigen.
Im Fall von Legacy-Anwendungen entscheiden sich viele, diese auf Kubernetes zu verlagern, indem sie entweder ihre Applikationen so umgestalten, dass sie cloudnativ werden und in Containern laufen. Eine Alternative ist die Nutzung von Werkzeugen wie KubeVirt, um weiterhin auch VMs zu verwenden. KubeVirt ist eine Open-Source-Erweiterung, die die Verwaltung und den Betrieb von virtuellen Maschinen in einer Kubernetes-Umgebung ermöglicht. Mit KubeVirt wird Kubernetes zu einer einheitlichen Entwicklungsplattform, auf der sich Anwendungen erstellen, ändern und bereitstellen lassen. Es ermöglicht auch Livemigrationen virtueller Maschinen, sofern die Speichervolumen den Zugriff auf mehrere Knoten unterstützen.
Eine weitere Überlegung ist die Integration von Anbietern mit KubeVirt-Plattformen wie SUSE, Red Hat, Spectro Cloud und Kubermatic, um zusätzliche Funktionen zu nutzen.
Speicheranforderungen von Kubernetes
Die Speicheranforderungen für containerisierte Anwendungen auf Kubernetes sind komplex. Die Plattform ist sehr gut darin, Tausende von containerisierten Anwendungen zu organisieren und zu verwalten, aber es gibt einige Herausforderungen, wenn es um die Speicherverwaltung geht. Das Einrichten von Storage-Klassen und Persistent-Volume-Claims für die unterschiedlichen Anforderungen von Anwendungen kann schwierig sein, wenn es um verschiedene Storage-Backends geht. Dies gilt besonders, wenn sichergestellt werden soll, dass sie mit der bestehenden Storage-Infrastruktur funktionieren. Für Speicheradministratoren ist es schwierig, zustandsbehaftete Datensätze zu verwalten und die Migration von Speicherklassen ohne Datenverlust in Konfigurationen zu bewältigen, bei denen die Daten über mehrere Knoten verteilt sind.
Es ist auch sehr wichtig, die richtige Art der Speicherabstraktion zu wählen und sich mit der Verwendung von Container Storage Interface (CSI) nicht in eine Abhängigkeit zu einem Hersteller von Speichersystemen zu begeben. Gerade in hybriden Cloudumgebungen kann dies zu einem Hindernis werden. CSI ist eine Standard-API, die es Kubernetes ermöglicht, mit Speichersystemen zu interagieren.
Es besteht allerdings eine Abhängigkeit von der zugrundeliegenden Speicherinfrastruktur und deren Anbietern. Kubernetes-native Systeme wie Portworx haben diese Abhängigkeiten nicht und erlauben einen Infrastruktur-unabhängigen Ansatz.
Alle cloudnativen Plattformen erfordern eine umfassendes Datenmanagement für Kubernetes. Aufgrund der hohen Leistungsanforderungen durch die Containerisierung oder die Migration von Workloads benötigen Unternehmen leistungsstarke Lese-/Schreibfunktionen. Sie möchten Hochleistungsspeicher für ihre VMs, die auf Kubernetes laufen, betreiben – und ihre Daten von einer einzigen Verwaltungsebene aus managen. Es bedarf daher eines Speichersystems, das für Kubernetes entwickelt wurde und eine cloudähnliche Skalierbarkeit, Automatisierung und Selbstbedienungsfunktionen bietet. Admin-Teams müssen sorgfältig darüber nachdenken, wie sie Zugriffskontrollen und Ressourcenkontingente bereitstellen und verwalten können, insbesondere in einer Multi-Hybrid-Infrastruktur. Diese anspruchsvollen Anforderungen erfordern ein System, das sich den Herausforderungen des Datenmanagements stellt, die Speicherung über den gesamten Lebenszyklus von Anwendungen automatisiert, Datenschutz und Datenstabilität bietet sowie moderne Anwendungen in hybriden und Multi-Cloud-Umgebungen vereinheitlicht.
Eine moderne Data-Management-Plattform integriert sich automatisch sowohl mit cloudnativen als auch mit On-Premises-Ansätzen. Dies ermöglicht Kubernetes-Clustern die konsistente Bereitstellung und Verwaltung persistenter Volumes und die Mobilität von Applikationen, unabhängig vom zugrundeliegenden Speicher.
Bild 2: Bei den unter Kubernetes laufenden Workloads finden sich auch moderne Technologien wie KI- und ML-Implementierungen. (Quelle: Pure Storage)
Datenschutz und Cyberresilienz
Unternehmen haben sich damit abgefunden, dass sie früher oder später einem Cyberangriff ausgesetzt sein werden. Speziell bei Kubernetes-Umgebungen sind Organisationen mit Fragen des Datenschutzes und der Cyberresilienz konfrontiert, um zustandsabhängige Anwendungen zu schützen und die Einhaltung globaler Vorschriften zu gewährleisten. Die Überwachung von Datennutzung, Leistung und Compliance in Echtzeit ist entscheidend. Moderne Plattformen sollten Observability und Automatisierung für die Bereitstellung und Verwaltung von Daten bieten.
Die Systeme sollten eine synchrone Replikation zum Disaster Recovery für VMs und Container auf Kubernetes bieten, um damit eine Wiederherstellung ohne Datenverlust zu erlauben. Wünschenswert sind dabei Self-Service-fähige, anwendungsspezifische Sicherungs- und Wiederherstellungsfunktionen, zusätzlich zur Sicherung und Wiederherstellung einzelner VMs.
Disaster Recovery hat bei jeder Virtualisierungsstrategie höchste Priorität. In traditionellen Umgebungen verwenden Admins oft synchrone Storage-Replikation über Cluster oder Availability-Zonen hinweg, um hohe Verfügbarkeit zu garantieren und Datenverlust auszuschließen. Ein Kubernetes-Speicher sollte synchrone Replikation bieten – lokal und auch in der Public Cloud, um von KubeVirt verwaltete VMs zu schützen. Mit dieser Funktion wird dieselbe Kopie der Daten an zwei Standorten aufbewahrt, sodass virtuelle Maschinen sofort umschalten können, ohne Daten zu verlieren.
Fazit
Unternehmen benötigen einen klaren Plan, um die Turbulenzen des VMware-Verkaufs zu überwinden. Das Cloudbetriebsmodell ist der richtige Ansatz, um aktuelle Geschäftsanforderungen durch ein Multi-Hybrid-Modell zu erfüllen, das Kubernetes unterstützt. Anstatt sofort vollständig auf Container umzusteigen oder zu einem anderen Hypervisor zu wechseln, lassen sich damit schrittweise Änderungen vornehmen.
Besonders beim Datenmanagement ist die Wahl der richtigen Speicherplattform entscheidend. Kubernetes bringt zwar viele Stärken in der Orchestrierung mit, stellt aber komplexe Anforderungen an persistente Speicherung, Skalierung, Verfügbarkeit und Portabilität. Firmen benötigen deshalb ein Storage-System, das speziell für Kubernetes entwickelt wurde, klassische Abhängigkeiten überwindet, Automatisierung und Self-Service ermöglicht und sowohl Container- als auch VM-Workloads zuverlässig unterstützt – über hybride Cloudgrenzen hinweg.
(ln)
Markus Grau ist Enterprise Architect für das EMEA CTO-Office von Pure Storage.