Das Speichermanagement zielt darauf ab, eine effiziente und zuverlässige Datennutzung zu gewährleisten. Es soll die Leistungsfähigkeit von Storage, Server- und hybriden IT-Infrastrukturen als Basis für Geschäftsanwendungen nicht nur verbessern, sondern gleichzeitig auch deren Integrität und Verfügbarkeit sicherstellen. Welche Entwicklungen sich daraus für die Unternehmens-IT ergeben, soll der folgende Beitrag zeigen.
Einige zentrale Begriffserklärungen zu Beginn: Der Terminus "Storage-Management" umfasst die wesentlichen Aspekte einer unternehmensweiten Verwaltung von Speicherressourcen und daran beteiligter Komponenten, dies sowohl on-premises als auch in der hybriden und Multicloud.
Darunter fallen Funktionen zur Ressourcenbereitstellung, Prozessautomatisierung, Loadbalancing, Kapazitätsplanung und -verwaltung, vorausschauenden Analysen, Leistungsüberwachung, Datenreplikation, Komprimierung, Deduplizierung, Snapshots und Cloning. Zu den weiteren Werkzeugen gehören Dienste für Cloudspeicher und Container-Managementsysteme wie Kubernetes & Co.
"Storage Ressource Management" (SRM) wiederum ist ein Teilaspekt der unternehmensweiten Speicherverwaltung. Von "direct-attached"- bis hin zu "fabric-attached"-Storage ist SRM typischerweise stärker mit der verwendeten Speicherhardware verbunden, unabhängig ob diese über softwaredefinierte JBODs beziehungsweise in sich abgeschlossenen intelligenten Storage-Arrays und -Subsysteme bereitgestellt werden. Dies gilt ebenso für hyperkonvergente Umgebungen und Computational-Storage-Systeme.
Einige zentrale Begriffserklärungen zu Beginn: Der Terminus "Storage-Management" umfasst die wesentlichen Aspekte einer unternehmensweiten Verwaltung von Speicherressourcen und daran beteiligter Komponenten, dies sowohl on-premises als auch in der hybriden und Multicloud.
Darunter fallen Funktionen zur Ressourcenbereitstellung, Prozessautomatisierung, Loadbalancing, Kapazitätsplanung und -verwaltung, vorausschauenden Analysen, Leistungsüberwachung, Datenreplikation, Komprimierung, Deduplizierung, Snapshots und Cloning. Zu den weiteren Werkzeugen gehören Dienste für Cloudspeicher und Container-Managementsysteme wie Kubernetes & Co.
"Storage Ressource Management" (SRM) wiederum ist ein Teilaspekt der unternehmensweiten Speicherverwaltung. Von "direct-attached"- bis hin zu "fabric-attached"-Storage ist SRM typischerweise stärker mit der verwendeten Speicherhardware verbunden, unabhängig ob diese über softwaredefinierte JBODs beziehungsweise in sich abgeschlossenen intelligenten Storage-Arrays und -Subsysteme bereitgestellt werden. Dies gilt ebenso für hyperkonvergente Umgebungen und Computational-Storage-Systeme.
Ran an die Daten
Im modernen Applikationsbetrieb und der damit verbundenen IT-Umgebung ist verstärkt ein datenzentrierter Ansatz zu beobachten. Informationen werden als strategische Ressource genutzt, die es entsprechend zu verwalten, analysieren und schützen gilt. Diese Datenlandschaft besteht meist aus lokalen Umgebungen und Cloudsystemen verschiedener Anbieter, die geografisch verteilt sein können, was die Datenverwaltung selbst erschwert. Die Begriffe Data- und Storage-Management hängen als Disziplinen voneinander ab. Das hardwarenahe Storage-Management bezieht sich auf die Verwaltung physischer Speicherressourcen und -medien wie HDDs, SSDs, Tapes und weiterer Geräte. Beim speichernahen Datenmanagement geht es um die Verwaltung der gespeicherten Daten, unabhängig von deren physischen Lagerung.
Neben den damit verbundenen Prozessen beinhaltet der Begriff des unternehmensweiten Datenmanagements die Organisation, Sicherung, Manipulation, Analyse und Verwaltung aller relevanten Daten während ihres gesamten Lebenszyklus, inklusive Datenbankverwaltung, Datenintegration, -modellierung, und -qualitätssicherung. Die Einrichtung von Prozessen zum Identifizieren wichtiger Informationen eines Unternehmens hängt mit der Priorisierung von Speichermanagement-Ressourcen zusammen.
Ein Beispiel: E-Mail kann die oberste Priorität eines Unternehmens darstellen, aber das Speichern und Archivieren von E-Mail-Daten für eine bestimmte Gruppe wie zum Beispiel der CxO-Führungsebene wird im Finanzsektor kritischer sein als andere Bereiche, etwa die Marketingebene. Dann muss sichergestellt sein, dass diese Prioritäten speicherseitig berücksichtigt werden.
Mehr Konvergenz durch standardisierte Schnittstellen
Unternehmens-Speichersysteme bieten Unterstützung für gängige Managementplattform-APIs. Der Standard SMI-S zur Integration von Ressourcen verschiedenster Anbieter – um diese gemeinsam zu nutzen und effizienter betreiben zu können – wird seit 2021 herstellerseitig verstärkt adaptiert. Ziel der Standardisierung aus Betriebssicht ist es, Speichergeräte verschiedener Anbieter möglichst einfach und sicher zu verwalten, da sie mit SMI-S "von außen" gleich aussehen und sich auch identisch verhalten und somit orchestrieren lassen.
Swordfish liefert bereits ab Version 1.2.5a vom Juni 2023 (neu: 1.2.6 seit 22. Januar 2024) eine Erweiterung der DMTF-Redfish-Spezifikation, sodass dieselbe RESTful-Schnittstelle zusammen mit JavaScript Object Notation (JSON) und Open Data Protocol (OData) Verwendung findet, um neben Servern auch Speichergeräte- und Dienste mit Blockspeichern, Filesystemen, Objektspeichern und Speichernetzwerk-Infrastrukturen transparent zu verwalten. Dies betrifft zudem das Management von NVMe- und NVMe-oF-Konfigurationen und -Ressourcen mithilfe von Swordfish und Redfish.
Die Fähigkeit zur Cloudanbindung und Verwaltung mit Hilfe von S3 als De-facto-Standard bei Objektspeichern ist für Speichersysteme inzwischen faktisch so gut wie überall gegeben. Zu den weiteren Komponenten eines umfassenden (Cloud-)Data-und Storage-Managements gehören neben Funktionen zur Automatisierung und Orchestrierung insbesondere die Bereiche Leistungsüberwachung, Sicherheit, Governance und Compliance sowie ein transparentes Kostenmanagement.
Standalone-Konfigurationsbeispiel für Swordfish gemäß Version 1.2.5a der Speicherverwaltungs-API-Spezifikation.
Integrative Strategien:Die Software machts
Software-definierte Speicherprodukte (SDS) bieten im Allgemeinen mehr Flexibilität und Skalierbarkeit im Vergleich zu reinen Hardwarevarianten. Insbesondere die Möglichkeit, Ressourcen plattformunabhängig dynamisch anzupassen, über Regionen auszudehnen und in die Cloud zu erweitern, erlaubt eine effiziente Skalierung, erfordert dann aber auch sorgfältigere Planung und Implementierung. SDS-Systeme sind aufgrund ihrer inhärenten Flexibilität und der Vielzahl von Optionen sowie Einstellungen je nach Einsatzgröße und Heterogenität deshalb komplexer in der Verwaltung. Die notwendige Konfiguration, Überwachung und laufenden Optimierungen der Systeme gilt es neben dem aktuellen Fachkräftemangel deswegen zu berücksichtigen.
Davon unberührt bleibt der Trend zur Konvergenz von Speicherverwaltung auf Infrastrukturebene mit speichernahen Datenmanagement-Werkzeugen. Unternehmen, die einen stärker integrierten Ansatz zur Speicher- und Datenverwaltung verfolgen, sind in der Lage, die Bereitstellung von Anwendungen zu beschleunigen und Infrastruktur-Silos aufzulösen. Softwaredefinierte Infrastrukturen (SDI) haben aus Verwaltungssicht den Vorteil, dass sich im Sinne einer integrativen IT zwei Ziele im Auge behalten lassen: Beweglichkeit und Elastizität des Storage-Layers im laufenden Betrieb. Mehr Kapazität oder Rechenleistung bedeutet, sie fügen diese Ressourcen im laufenden Betrieb hinzu.
SDI nutzt kostengünstige skalierbare Ressourcen innerhalb der Public Cloud. Betriebe können sich damit auf verändernde Anforderungen besser einstellen und schneller reagieren. SDS trennt technisch gesehen die Steuerung (control plane) der Speicherinfrastruktur von der rein physischen Hardware. Es erlaubt die zentralisierte Verwaltung unterschiedlicher Speicherressourcen und deren Automatisierung über Speicher- und Datenmanagement-Funktionen wie Deduplizierung, Komprimierung, Snapshots, Replikation und Datenverschlüsselung. Dies ermöglicht je nach Anbieter eine komplette Verwaltung und Sicherung kritischer Daten "in the box", auch ohne weitere externe Toolsets.
Bei softwaregesteuerten Unternehmensspeichern lässt sich inzwischen sowohl der On-Premises-Storage als auch die native Public-Cloud-Speicherumgebung als eine integrierte softwaredefinierte Infrastruktur verwalten – so als ob die Public Cloud nur ein weiteres Speichersystem wäre, das über seine Benutzeroberfläche identifiziert wird. Die Public Cloud kommt typischerweise für speicherintensive Anwendungsfälle wie Datenarchivierung als auch für Backups, Disaster-Recovery- oder cloudnative Dev-Ops zum Einsatz. Unternehmen erhalten in dieser Kombination vor allem eine bessere Kontrolle, indem sie kritische Daten je nach Anforderung vor Ort behalten, um die gesetzliche Einhaltung von Vorschriften zu Data Governance, Compliance und Datenschutz gewährleisten zu können.
KI-Unterstützung für Software-definierte Infrastrukturen
Eine Datenservices-Infrastruktur, die den hybriden (Multi-)Cloudbetrieb unterstützt, ist ein zentrales Element innerhalb einer modernen Strategie zur Datenverwaltung. In Bezug auf die Datenverwaltungs- und Speicherfunktionalitäten bei stark wachsenden verteilten Datei- und Objektspeicher-Systemen werden diese logisch in einer Managementplattform zusammengeführt, um ein möglichst breites Spektrum an Anwendungsfällen für unstrukturierte Daten abzudecken und gleichzeitig die Kosten für das Speicher- und Datenmanagement zu senken.
Davon profitiert auch die Sicherheit: Mithilfe von AIOps im IT-Betrieb ist eine hochautomatisierte Infrastruktur viel besser in der Lage, als widerstandsfähige Plattform zur Verwaltung von Datendiensten zu agieren. Der Einsatz generativer Künstlicher Intelligenz und Natural Language Processing liefert zudem weitere Möglichkeiten, die Cyberwiederherstellung mit Hilfe von KI-Funktionen zu beschleunigen, um SLA- und RTO-/RPO-Vorgaben effektiver einzuhalten.
Ein Beispiel ist die Zusammenarbeit von Backup-Plattformanbietern mit Microsoft Sentinel und Azure OpenAI Cloud Service. Der KI-Einsatz verkürzt den Zeitaufwand für die Untersuchung und Festlegung von Reaktionen auf Cyberereignisse deutlich. Moderne KI-gestützte Backups sind über proaktive Ransomware-Erkennung oder die Identifizierung kritischer Daten in der Lage, mithilfe von ML-Technologien potenzielle Risiken zu minimieren und die Bedrohungserkennung zu unterstützen, etwa durch sofortige Warnmeldungen, falls Verschlüsselungen, nicht legitimierte Änderungen an Daten oder andere Anomalien auftreten.
Die Einführung von KI und ML macht somit aus bisher stark manuell dominierten Sicherungs- und Wiederherstellungsprozessen einen hochautomatisierten datengesteuerten Prozess, der eine konsistentere Abstimmung mit IT-Service-Management-Tools ermöglicht. Diese bilden eine zentrale Schnittstelle der IT hin zur Unternehmensführung ab, die aufgrund steigender regulatorischer Vorgaben immer mehr Verantwortung für die Verfügbarkeit und Sicherheit der Anwendungen und Systeme zu tragen hat. Externe Katalysatoren und Treiber dieser Entwicklungen betreffen EU-weite politische und regulatorische Vorgaben wie IKT-Resilienz inklusive Maßnahmen zur verbesserten Cybersicherheit. Dazu gehört die aktuelle Umsetzung des EU-Gesetzes zur digitalen Widerstandsfähigkeit (Digital Operational Resilience Act, DORA).
DevOps-Umfeldmit Herausforderungen
In der Praxis stellt die Storage- und Data-Management-Integration im Sinne einer konsequent übergreifenden Architektur zwischen On-premises- und nativen Cloudressourcen jedoch gerade im DevOps-Umfeld noch verschiedene Herausforderung bereit – nicht zuletzt, weil die Anzahl zustandsabhängiger Anwendungen in den letzten Jahren sehr schnell und teils unkontrolliert zugenommen hat. Persistente Speichersysteme laufen auch außerhalb von nativen Cloudumgebungen auf separaten Systemen, was den Verwaltungsaufwand komplizierter, unübersichtlicher und teurer macht.
Das Interesse an der Bereitstellung von Stateful-Applikationen mit Kubernetes-Clustersystemen ist zudem gestiegen, weil sich Unternehmen nicht immer auf ein separates Team verlassen wollen oder können, das den Speicher verwaltet. Es ist – das nötige Know-how vorausgesetzt – unter Umständen kostengünstiger, aber jedenfalls meist zeitsparender und einfacher, wenn dasselbe IT-Team, das den Kubernetes-Cluster verwaltet, auch alle mit diesem Cluster verbundenen Speicherressourcen betreut. Damit steigt in Konsequenz der Bedarf an einer verstärkten Automatisierung der Speicherverwaltung über alle Arten von Clustern, an die unterschiedliche Speicherdienste angeschlossen sein können. Entwicklungen im Bereich KI-gestützter Toolsets versprechen jedoch Abhilfe.
Inzwischen sind Werkzeuge am Markt, um eine gemeinsame speichernahe Datenverwaltung innerhalb kombinierter File- und Object-Plattformen – entweder als cloudnative Software oder kombinierte Hard- und Software in Form einer Appliance – zu ermöglichen.
Container anflanschen mit CSI
Das starke Wachstum im Bereich unstrukturierter Dateien und die damit zunehmende Attraktivität von Objektspeicher für neue Anwendungen verstärkt die Notwendigkeit einer umfassenden konsolidierten Speicherverwaltung. Diese beruht im Wesentlichen auf softwaredefinierten Compute- und Speicherressourcen. Innerhalb von SDI verwendet SDS eine verteilte Systemarchitektur für Primär-, Sekundär- und Archivdaten. Einhergeht dies mit dem Entwicklungstrend, isolierte Infrastruktur-Silos zugunsten von flexiblen und skalierbaren, cloudunterstützten hybriden Plattformen aufzulösen.
Die Automatisierung von DevOps-Prozessen, um schneller cloudnative und skalierbare Anwendungen auf Basis von Containern sowie Mikroservices zu erstellen, spielt dabei eine wichtige Rolle. Das cloudnative Ökosystem liefert zur Speicherverwaltung seit geraumer Zeit über das Container Storage Interface (CSI) dazu bereits festgelegte Spezifikationen, um einen standardisierten, portablen Ansatz zur Implementierung und Nutzung von Storage-Diensten auf Basis von containerisierten Workloads schneller und einfacher zu erreichen. Per Definition ist CSI eine weitere Möglichkeit, um beliebige Block- und Dateispeichersysteme für containerisierte Workloads bereitzustellen.
Mithilfe von CSIs kann mit dem Speicher auf einem lokalen Server oder außerhalb des Clusters selbst interagiert werden. CSIs stehen auch für das Zusammenspiel mit Azure- oder S3-Storage zur Verfügung, um cloudnative Plattformen zum Speichern von Pod-Daten zu verwenden. Diese sind selbst dann noch vorhanden, wenn ein Pod selbst verschwindet. Hersteller wie NetApp, Pure Storage, IBM, HPE, VMware vSAN und andere bieten Storage-Plug-ins für Kubernetes & Co. Toolseitig sind Open-Source-Projekte wie etwa Kubestr zudem in der Lage, die relativen Leistungswerte verschiedener Speicherkonfigurationen, sogar über Cloudanbieter hinweg, zu analysieren.
Effiziente Verwaltung von Block-, File- und Objektdaten
Moderne cloudnative Anwendungen auf Basis von Containern und Mikroservices integrieren skalierbare Datei-, Block- und Objektspeicherdienste direkt im Applikations-Cluster und führen sie mit anderen Anwendungen und Diensten zusammen, die den Speicher allokieren. Dadurch wird der cloudnative Cluster autark und portabel über Public Clouds und On-Premises-Bereitstellungen hinweg. Unternehmen geraten so in die Lage, ihre Rechenzentren mit dynamischer Anwendungsorchestrierung für verteilte Speichersysteme in lokalen und öffentlichen Cloud-Umgebungen zu modernisieren.
Aber selbst wenn übergeordnete Verwaltungswerkzeuge wie Kubernetes verteilte Dateisysteme wie NFS und GlusterFS verwenden, bleibt der Einsatz einer Container-fähigen Storage-Fabric empfehlenswert, falls diese auf die Anforderungen von zustandsabhängigen Workloads in der Produktion ausgelegt ist. Betreiber können aus einer wachsenden Anzahl von Open-Source-Projekten sowie Anbieterplattformen wie OpenEBS, Rook Ceph, Longhorn, GlusterFS oder LINSTOR sowie einer Reihe kommerzieller Implementierungen etwa von SUSE oder Red Hat wählen.
Analog zum klassischen Produktivbetrieb ist in diesem Umfeld auf die steigenden Anforderungen in Bezug auf Hochverfügbarkeit, Performance, Compliance- und Datensicherheit sowie Cyberschutz zu achten. Zentrale Leistungsmerkmale bei der Auswahl eines Systems sind:
- Storage-as-a-Service, um die Dienste als cloudähnlichen Service bereitstellen zu können.
- Hoher Automatisierungsgrad, sodass die Bereitstellung selbst nicht IT-gebunden sein muss.
- Optimierte Integration mit bestehenden Entwicklerprozessen.
Um die Bereitstellung und Verwaltung von Server- und Speicherressourcen zu erleichtern, war gerade im letzten Jahr ein wachsendes Angebot von "Storage-as-a-Service"-Angeboten zu beobachten. Die Motivation dahinter ist oft, CAPEX-Ausgaben zu begrenzen sowie Beschaffung, Einsatz und laufende Wartung zu vereinfachen; dies gilt besonders, wenn eine Investition im Betrieb meist nur unvollständig ausgelastet ist. Cloudangebote für IT-Management-Dienste können im Speicherumfeld gezielt helfen, den gesamten Infrastruktur-Betrieb besser zu rationalisieren. Beispiele sind Backup-, Disaster-Recovery- oder Archivierung-as-a-Service.
Dies trifft ebenso für virtuelle Desktops mit DaaS zu. Sie vereinfachen die Desktop-Bereitstellung und somit auch die Datenspeicher-Verwaltung. Betreiber müssen jedoch sicherstellen, dass ihre VDI über ausreichend Speicherressourcen verfügt, um die stetig wachsenden Leistungs- und Kapazitätsanforderungen zu erfüllen. Bei DaaS-Angeboten bedeutet dies meist zusätzliche Gebühren. Für VDI vo Ort heißt es, mehr Speicherplatz zu organisieren und aufgrund der gestiegenen Service-Akzeptanz die Performance mit schnelleren All-Flash-Arrays zu erhöhen.
Generell werden Abodienste oder On-demand-Services künftig nur dann erfolgreich sein, wenn sie durch entsprechende SLAs garantiert, sprich abgesichert und messbar sind; dies gilt insbesondere für die Bereiche Datenschutz, Energieeffizienz und Nachhaltigkeit.
Fazit
IT-Organisationen betreiben heute nicht nur mehr reine Speicherverwaltung, sondern betrachten ihr Datenmanagement als strategischen Differenzierungsfaktor gegenüber Kunden, Mitbewerbern, Märkten und Anwendungen. Werkzeuge zur Speicherverwaltung erleichtern nicht nur die Überwachung, Verwaltung und Fehlerbehebung aller wesentlichen Komponenten eines Speichersystems, sondern steuern auch wichtige Parameter zur Komprimierung, Deduplizierung sowie Performanceoptimierung. Moderne Plattformen liefern darüber hinaus weitergehende Funktionen zum Aufbau einer persistenten cloudnativen Umgebung mit hohem Automatisierungsgrad und SLA-Funktionen für Anwendungsdaten – ohne dass die Bereitstellung dazu per se IT-Ops gebunden sein muss.
Um die Anwendungsleistung für hybride Cloudumgebungen sicherzustellen, werden Container, Servicenetze, Mikroservices, unveränderliche Infrastrukturen und deklarative APIs benötigt. Zusammen ermöglichen sie in Kombination mit einer robusten KI-gestützten Automatisierung die Implementierung, Überwachung sowie Kontrolle lose gekoppelter Systeme, die dann belastbarer, relativ einfach handhabbar und zentral zu managen sind. Unter dem Aspekt Nachhaltigkeit wird die energieeffiziente Plattformnutzung für Rechenzentren ein zentraler Faktor zur Senkung von CO2-Emissionen sein. Unternehmen sollten dies bei ihren Kaufentscheidungen und Planungen berücksichtigen.