ADMIN

2024

04

2024-03-27T12:00:00

Small-Business-IT

PRAXIS

050

Storage

Modernes Storage-Management

Die Software macht's!

von Frank Hoerner

Veröffentlicht in Ausgabe 04/2024 - PRAXIS

Technologien wie Virtualisierung, Automatisierung und KI-gestützte Systeme verändern die Art und Weise, wie wir Daten speichern und verwalten. Sie ermöglichen nicht nur ein effizienteres und flexibleres Speichermanagement, sondern tragen auch zur Nachhaltigkeit bei, indem sie den Energieverbrauch und die Umweltauswirkungen minimieren. Dabei wird die Software zum entscheidenden Faktor beim Storage-Management.

Von der Lochkarte zum Flash-Speicher hat die Storage-Technologie in den vergangenen Jahrzehnten eine unglaubliche Entwicklung genommen. Nicht zuletzt dieser Fortschritt hat aber auch eine Datenlawine losgetreten. Die heute in Unternehmen gespeicherten Informationsmengen gehen oft an die PBytes, was die Art und Weise, wie Daten gespeichert, abgerufen und genutzt werden, zu einer zentralen, strategischen Frage in der IT macht.
Eine erste Antwort auf diese Herausforderung war in den 90er Jahren das Data-Warehouse-Konzept in Zusammenhang mit Business-Intelligence-Ansätzen, was salopp gesagt bedeutete: "Wir speichern erst einmal alles, was wir kriegen können, und überlegen uns später, was wir damit anfangen". Solange Speicher im Prinzip analog zum Datenwachstum ausgebaut werden konnte, war das kein Problem. Spätestens mit dem Aufkommen von immer mehr Anwendungen, die selbst Daten generieren, etwa im Internet der Dinge oder zuletzt im Bereich der künstlichen Intelligenz, hat die Datenflut diesen Ansatz bildlich gesprochen weggespült.
Komplexität nimmt stetig zu
Heute liegen die Daten oft nicht einmal mehr bei den Unternehmen selbst, sondern auf Servern von Drittanbietern, auf dezentralen Servern am Netzwerkrand (Edge) oder direkt in der Cloud beziehungsweise in Mischformen verschiedenster Ausprägung. Konzepte wie Virtualisierung oder Software-defined Storage lösen die Speicherung von den physischen Geräten, was einerseits zu enorm effizienten und skalierbaren Ressourcen führt, andererseits aber die ohnehin große Komplexität noch einmal deutlich erhöht. Daten wiederum werden nicht nur von den Nutzern abgerufen, sie dienen auch als Grundlage für Anwendungen mit ganz unterschiedlichen Anforderungen oder für automatische Analysen. Sie steuern datenbasierte Systeme oder befeuern moderne Technologien wie Machine Learning und, ganz neu im Quartett, Generative KI.
Von der Lochkarte zum Flash-Speicher hat die Storage-Technologie in den vergangenen Jahrzehnten eine unglaubliche Entwicklung genommen. Nicht zuletzt dieser Fortschritt hat aber auch eine Datenlawine losgetreten. Die heute in Unternehmen gespeicherten Informationsmengen gehen oft an die PBytes, was die Art und Weise, wie Daten gespeichert, abgerufen und genutzt werden, zu einer zentralen, strategischen Frage in der IT macht.
Eine erste Antwort auf diese Herausforderung war in den 90er Jahren das Data-Warehouse-Konzept in Zusammenhang mit Business-Intelligence-Ansätzen, was salopp gesagt bedeutete: "Wir speichern erst einmal alles, was wir kriegen können, und überlegen uns später, was wir damit anfangen". Solange Speicher im Prinzip analog zum Datenwachstum ausgebaut werden konnte, war das kein Problem. Spätestens mit dem Aufkommen von immer mehr Anwendungen, die selbst Daten generieren, etwa im Internet der Dinge oder zuletzt im Bereich der künstlichen Intelligenz, hat die Datenflut diesen Ansatz bildlich gesprochen weggespült.
Komplexität nimmt stetig zu
Heute liegen die Daten oft nicht einmal mehr bei den Unternehmen selbst, sondern auf Servern von Drittanbietern, auf dezentralen Servern am Netzwerkrand (Edge) oder direkt in der Cloud beziehungsweise in Mischformen verschiedenster Ausprägung. Konzepte wie Virtualisierung oder Software-defined Storage lösen die Speicherung von den physischen Geräten, was einerseits zu enorm effizienten und skalierbaren Ressourcen führt, andererseits aber die ohnehin große Komplexität noch einmal deutlich erhöht. Daten wiederum werden nicht nur von den Nutzern abgerufen, sie dienen auch als Grundlage für Anwendungen mit ganz unterschiedlichen Anforderungen oder für automatische Analysen. Sie steuern datenbasierte Systeme oder befeuern moderne Technologien wie Machine Learning und, ganz neu im Quartett, Generative KI.
Immer stärker im Fokus steht bei alledem der Aspekt der Nachhaltigkeit, der unter anderem die Langlebigkeit der Produkte, Möglichkeiten zum Recycling der verwendeten Materialien, aber auch den Stromverbrauch über den gesamten Lifecyle betrachtet. Vor diesem Hintergrund das Thema Storage-Management zu beleuchten, lässt sich vielleicht am besten mit dem viel zitierten Beziehungsstatus auf Facebook zusammenfassen: Es ist kompliziert. Wir versuchen es trotzdem.
Das Wichtigste auf einen Blick – der Einstieg in das "Ops Center" von Hitachi Vantara ist das Administrator-Dashboard.
Darum geht es beim Storage-Management
Storage-Management bezieht sich auf Praktiken und Prozesse, um Speicherressourcen in einem IT-Umfeld effizient zu verwalten. Es umfasst eine breite Palette von Aktivitäten wie die Zuweisung von Speicherplatz, die Überwachung der Systemleistung, die Sicherung von Daten, die Optimierung der Speicherauslastung und die Gewährleistung der Datensicherheit. Ziel des Sto-rage-Managements ist es, die Verfügbarkeit, Zuverlässigkeit und Effizienz der Datenspeicherung zu maximieren und gleichzeitig die Kosten zu kontrollieren und die Einhaltung von Datenschutz- und Compliance-Standards zu gewährleisten. In jüngerer Zeit umfasst es auch Aspekte der Nachhaltigkeit, um den Energiekonsum und die Umweltauswirkungen von Speicherlösungen zu minimieren.
Storage-Management stellt sicher, dass sich Daten effizient speichern und bei Bedarf schnell abrufen lassen. Dies ist besonders wichtig in einer Zeit, in der Datenmengen exponentiell wachsen. Es hilft Unternehmen, Speicherkosten zu optimieren, indem sie den Speicherplatz effizient nutzen und überflüssige Daten reduzieren, und schützt vor Datenverlust und Sicherheitsverletzungen.
Mit Blick auf die Nachhaltigkeit der Datenspeicherung zielt Storage-Management vor allem darauf ab, den Energieverbrauch und ganz allgemein die Ressourcennutzung zu minimieren. Dabei geht es tatsächlich in einer ganzheitlichen Betrachtung auch darum, wie Speichergeräte hergestellt, genutzt und entsorgt werden, um Umweltauswirkungen zu reduzieren.
Mix unterschiedlicher Technologien
Der Begriff Storage subsummiert zahlreiche unterschiedliche Technologien, um digitale Daten zu speichern. Grundsätzlich spielen in modernen IT-Infrastrukturen immer noch drei Haupttypen die Schlüsselrolle, die alle auch in der Verwaltung unterschiedliche Anforderungen haben: Block-, File- und Object-Storage. Die unterschiedlichen Schwerpunkte dieser drei Speichertechnologien haben zur Folge, dass Unternehmen in der Praxis meist eine Kombination einsetzen, je nach ihren spezifischen Anforderungen und Anwendungsfällen.
Obwohl Objektspeicher als cloudnative Technologie mit quasi unbegrenzter Skalierbarkeit und durch seine Vorzüge bei unstrukturierten Daten immer stärker an Popularität gewinnt, ist es unwahrscheinlich, dass er Block- und Dateispeicher vollständig verdrängen wird. In puncto Geschwindigkeit und Latenz hinkt er Blockspeicher hinterher. Hinzu kommt, dass Unternehmen oft Legacy-Systeme im Einsatz haben, die speziell für Block- oder File-Storage konzipiert sind. Für das Storage-Management bedeutet das, dass in der Regel drei Basistechnologien mit unterschiedlichen Anforderungen unter einen Hut zu bringen sind. Hybrid- oder Multicloud-Ansätze tragen dieser Tatsache bereits Rechnung.
Modernes Speichermanagement ist KI-gestützt
Fortschrittliche Technologien wie SDS (Software-defined Storage) oder Hyper-Converged Infrastructures (HCI) trennen die Verwaltung praktisch von der Hardware oder integrieren das Management von Rechen-, Netzwerk- und Speicherfunktionen in einem einzigen Werkzeug. Praktisch gelten aber ähnliche Anforderungen an das Storage-Management. Eine effiziente Verwaltung, insbesondere in Umgebungen, die eine Kombination aus Block-, Datei- und Objektspeicher nutzen, erfordert eine strategische Planung und den Einsatz geeigneter Verwaltungstools und -praktiken.
Moderne Managementsoftware wie etwa das Hitachi Ops Center nutzt Machine Learning (ML) und künstliche Intelligenz zur zentralen Überwachung, Verwaltung und Analyse aller Speichertypen. Initial sollte eine eingehende Analyse der spezifischen Anforderungen der Anwendungen und Daten eines Unternehmens erfolgen, denn gegebenenfalls erfordern unterschiedliche Datenarten (zum Beispiel Datenbanken, Multimedia-Inhalte, Dokumente) unterschiedliche Speichertypen. Dabei sind auch Faktoren wie Leistung, Zugriffsmuster, Skalierbarkeit, Sicherheit und Compliance zu berücksichtigen.
Mehr Geschwindigkeit ist immer gleichbedeutend mit höheren Kosten. Daher ist es ratsam, einen optimalen, individuellen Mix aus Performance und Kosten zu finden. Zur kontinuierlichen Überwachung von Speichernutzung und -kosten eignen sich KI-gestützte Analysetools. KI kann dabei helfen, Daten basierend auf Zugriffsmustern und Relevanz zwischen verschiedenen Speicherebenen (Hot, Cold, Archiv) zu verschieben. Dies optimiert die Leistung und Kosten, indem häufig genutzte Daten auf schnelleren Speichermedien und selten genutzte Daten auf kostengünstigeren Medien abgelegt werden. So lassen sich unnötige Ausgaben, etwa für ungenutzte Ressourcen, identifizieren und reduzieren und ein Blick auf die Gesamtbetriebskosten erstellen.
Virtualisierung und Automatisierung als Schlüssel
Bei der zunehmenden Komplexität (und dem grassierenden Fachkräftemangel) ist es enorm wichtig, Admins von Routineaufgaben zu entlasten. Virtualisierung, Automatisierung und künstliche Intelligenz spielen dabei eine zunehmend wichtige Rolle, indem sie Effizienz, Leistung und Entscheidungsfindung verbessern. Virtualisierung bietet verschiedene Vorteile und Funktionen, die das Speichermanagement effizienter, flexibler und kostengünstiger gestalten. Durch Virtualisierung lassen sich Ressourcen effizienter nutzen, denn mehrere Server oder Anwendungen können denselben physischen Speicher gemeinsam verwenden, wodurch die Speicherauslastung optimiert und Überkapazitäten reduziert werden.
Dadurch ermöglicht virtualisierter Storage auch eine einfache Skalierung. Speicherplatz lässt sich quasi auf Knopfdruck dynamisch provisionieren und deprovisionieren, ohne laufende Operationen zu beeinträchtigen. Mit Virtualisierung lassen sich Daten leichter replizieren und als Snapshots sichern. Bei einem Ausfall können Systeme schneller wiederhergestellt werden, da die Daten und Konfigurationen von virtuellen Maschinen leichter zu migrieren sind. Daten sind zudem leicht zwischen verschiedenen Speichersystemen oder Standorten verschiebbar.
Bei der Verwaltung der Storage-Ressourcen können KI und ML große Mengen von Speichermetadaten analysieren, um Muster und Trends zu erkennen und auf dieser Grundlage Analysen zur Optimierung der Speicherauslastung, zur Vorhersage zukünftiger Speicheranforderungen und zur Identifizierung von Engpässen oder Leistungsproblemen zu erstellen. Automatisierungstools vereinfachen Tasks wie Provisionierung, Datenreplikation, Backup und Wiederherstellung. Orchestrierungstools helfen dabei, physische oder virtuelle Ressourcen über verschiedene Speichertypen hinweg effizient zu verwalten und zu allozieren.
Auf Autopilot: Betrieb, Wartung und Schutz
Automatisierung ermöglicht es, Speicherressourcen dynamisch zu skalieren, basierend auf aktuellen Anforderungen, ohne manuelle Eingriffe. Dies ist besonders wichtig in Cloud- und Hybridumgebungen, wo Ressourcen flexibel hinzugefügt oder entfernt werden können. KI hilft dabei, die Einhaltung von Datenmanagement- und Compliance-Richtlinien zu überwachen. Automatisierte Workflows stellen sicher (und dokumentieren), dass Daten gemäß den geltenden Vorschriften und Best Practices gespeichert, archiviert und gelöscht werden.
KI-Algorithmen lassen sich außerdem zur Vorhersage von Hardwareausfällen einsetzen, indem sie Muster in Logdateien und Leistungsdaten analysieren. Dies ermöglicht die proaktive Wartung (Predic-tive Maintenance) und damit den Austausch von Komponenten, bevor sie ausfallen. Sie erhöhen die Datensicherheit, indem sie Sicherheitsprotokolle überwachen und analysieren und frühzeitig Anomalien erkennen, die auf potenzielle Sicherheitsbedrohungen hinweisen. Im Falle einer Bedrohung können automatisierte Reaktionssysteme schneller als jeder Mensch reagieren, um Datenverluste oder -beschädigungen zu verhindern.
Insgesamt ermöglichen Virtualisierung, Automatisierung und KI / ML im Storage-Management eine intelligentere, proaktivere und effizientere Verwaltung von Speicherressourcen. Dies führt letzten Endes zu verbesserter Leistung, geringeren Kosten und einer höheren Datensicherheit.
Nachhaltigkeit muss sein
Nachhaltigkeit beim IT-Betrieb ist heute kein "Nice to Have" mehr, sondern ein "Must Have". Vor dem Hintergrund des Klimawandels und immer knapperer – und teurerer – Ressourcen rückt die IT in den Fokus: Sie ist mit ihren Lösungen nicht nur Treiber der digitalen Transformation, sondern mit ihren Rechenzentren auch einer der größten Stromverbraucher. Darüber hinaus verschlingt die Produktion der Hardware enorme Mengen an Rohstoffen, darunter Mineralien wie Zinn, Tantal, Wolfram, Coltan, Gold sowie seltene Erden, die nicht nur selten sind, sondern oft auch unter prekären Bedingungen und hoher Umweltbelastung gefördert werden. In einer ganzheitlichen Betrachtung gilt es also, nicht nur den Betrieb, sondern ebenso die Herstellung und Verwertung am Ende des Lebenszyklus zu betrachten. Enterprise-Storage-Systeme, die sich über mehrere Jahre nutzen und erweitern lassen, sind hier im Vorteil.
Aber über den kompletten Lifecycle entstehen mit 95 Prozent immer noch die bei weitem meisten CO2-Emissionen durch Stromkonsum und Klimatisierung im laufenden Betrieb. Hier lohnt sich eine Konsolidierung bestehender Systeme in ein Array, das in der Lage ist, Speicher virtualisiert bereitzustellen. In Kundenumgebungen hat beispielsweise Hitachi durch die Konsolidierung mehrerer Systeme in sein Flaggschiff – die bis zu einer Kapazität von 69 PBytes modular erweiterbare VSP 5600 – und im Zusammenspiel mit seiner Ops-Center-Softwareplattform die Emissionen um rund 60 Prozent reduzieren können. In komplexen Umgebungen kann sich dies bei einer Laufzeit von fünf Jahren schnell zu Größenordnungen von bis zu 5000 Tonnen CO2 aufsummieren.
Zu viel Heterogenitätschafft Probleme
Das größte Wachstum der Datenmengen erfolgt seit einigen Jahren im Bereich der unstrukturierten Daten. Unternehmen haben daher vor allem im Object-Storage ihre Kapazitäten deutlich ausgebaut. Technische Standards wie Amazons "Simple Storage Service", kurz S3, oder Storage-Pools auf Open-Source-Basis wie Ceph haben das Fundament dafür gelegt, dass sich unterschiedlichste Hardware zusammenfassen lässt, um einen großen Data Lake zu schaffen.
Mit diesen Werkzeugen an der Hand haben Unternehmen vielerorts eine Menge heterogener Hardware angeschafft, die alle mit spezifischen Herausforderungen kommen: Unterschiedliche Komponenten, Versionen von Betriebssystemen oder auch Ansprechpartner bei Ausfällen verursachen in der schönen neuen Storage-Welt dann oft administrative Kopfschmerzen. Ganz zu schweigen davon, dass es für Block und File wiederum zusätzlicher Systeme bedarf. Vor diesem Hintergrund gewinnen die scheinbar teuren Enterprise-Systeme wieder an Boden. Praktisch alle großen Hersteller bieten mittlerweile Arrays, die sich für alle Systeme zentral über ein Storage-Management verwalten lassen.
Dadurch kann die gesamte Verwaltung optional auch extern durch einen Partner erfolgen, bis hin zu kompletten "consumption based" Storage-as-a-Service-Modellen wie EverFlex, bei dem IT-Verantwortliche nur noch festlegen müssen, welchen Speicher sie in welchem Umfang benötigen. Das Ziel ist, dass Storage irgendwann so selbstverständlich zur Verfügung steht wie der Strom aus der Steckdose. Und die Voraussetzung dazu ist ein innovatives, KI-gestütztes Storage-Management, das hilft, die Pferdestärken moderner Speichersysteme auf die Straße zu bringen und gleichzeitig die Anforderungen der Unternehmen zu erfüllen.
Fazit
Effizientes Storage-Management ist für Unternehmen essenziell, um mit der Datenflut umzugehen. Moderne Systeme nutzen KI und Machine Learning für dynamische Anpassungen und Kostenoptimierung. Die Integration verschiedener Technologien und die Automatisierung von Routineaufgaben erhöhen Effizienz und Datensicherheit. Dieser Ansatz unterstützt Unternehmen bei der digitalen Transformation und Umweltverantwortung.
(ln)
Frank Hoerner ist Director Technical Sales EMEA – Germany bei Hitachi Vantara Deutschland.