ADMIN

2021

06

2021-06-01T12:00:00

Storage-Management

SCHWERPUNKT

100

Storage-Management

Storage-Planung und -Einkauf

Einkaufsliste

von Christian Barmala

Veröffentlicht in Ausgabe 06/2021 - SCHWERPUNKT

Ist neuer Storage erst einmal implementiert, halten sich die Möglichkeiten zur Arbeitserleich­terung der IT-Verantwortlichen in engen Grenzen. Daher sollten Admins bereits in der Planungs- und Einkaufsphase auf eine Reihe von Punkten achten, um zu vermeiden, dass ihr Arbeitsalltag komplexer wird als unbedingt erforderlich.

Die großen, etablierten Namen der Speicherbranche vermitteln Sicherheit und erleichtern IT-Leitern und -Administratoren insofern das Leben, als dass sich Investitionen in ihre Produkte in der Regel einfacher gegenüber dem Finanzvorstand rechtfertigen lassen. Die alte Devise "Niemand wird dafür gefeuert IBM zu kaufen" gilt noch immer. Die Angebote dieser Unternehmen leiden allerdings unter demselben Problem wie die Rechenzentren vieler Unternehmen: Ihre Infrastruktur beziehungsweise Technologie ist, euphemistisch ausgedrückt, organisch gewachsen. Anders gesagt: Sie schleppen eine Menge an Legacy-Technologien mit sich herum, die zu unnötiger Komplexität führen. Das gilt für die Hardware ebenso wie für die Speichersoftware und die Bedienung.
Jüngere Unternehmen bieten hierbei oft die bessere Alternative, weil sie Produkte von Beginn an mit den heute zur Verfügung stehenden Technologien und mit Blick auf die aktuellen Bedürfnisse der IT entwickeln. Bestenfalls nutzen Speicherwerkzeuge bewährte Standardhardware, die im Gegensatz zu proprietärer Hardware keine spezifische Einarbeitung erfordert. Die Lösungen enthalten auch keine kryptischen Kommandos, die sich nur aus der Historie der betreffenden Firma und ihrer Produkte erklären.
Auf Standards und die richtigen Tools achten
Es ist eine gute Idee, sich für ein Storage-Produkt zu entscheiden, das für den nativen Zugang auf einen weit verbreiteten Standard setzt. Hier bietet sich vor allem eine RESTful-API an. Alle weiteren Verwaltungstools sollten auf einer solch standardisierten Schnittstelle aufsetzen statt auf einer proprietären API, die spezielle Kenntnisse erfordert und im Problemfall zu besonderen Herausforderungen führt.
Die großen, etablierten Namen der Speicherbranche vermitteln Sicherheit und erleichtern IT-Leitern und -Administratoren insofern das Leben, als dass sich Investitionen in ihre Produkte in der Regel einfacher gegenüber dem Finanzvorstand rechtfertigen lassen. Die alte Devise "Niemand wird dafür gefeuert IBM zu kaufen" gilt noch immer. Die Angebote dieser Unternehmen leiden allerdings unter demselben Problem wie die Rechenzentren vieler Unternehmen: Ihre Infrastruktur beziehungsweise Technologie ist, euphemistisch ausgedrückt, organisch gewachsen. Anders gesagt: Sie schleppen eine Menge an Legacy-Technologien mit sich herum, die zu unnötiger Komplexität führen. Das gilt für die Hardware ebenso wie für die Speichersoftware und die Bedienung.
Jüngere Unternehmen bieten hierbei oft die bessere Alternative, weil sie Produkte von Beginn an mit den heute zur Verfügung stehenden Technologien und mit Blick auf die aktuellen Bedürfnisse der IT entwickeln. Bestenfalls nutzen Speicherwerkzeuge bewährte Standardhardware, die im Gegensatz zu proprietärer Hardware keine spezifische Einarbeitung erfordert. Die Lösungen enthalten auch keine kryptischen Kommandos, die sich nur aus der Historie der betreffenden Firma und ihrer Produkte erklären.
Auf Standards und die richtigen Tools achten
Es ist eine gute Idee, sich für ein Storage-Produkt zu entscheiden, das für den nativen Zugang auf einen weit verbreiteten Standard setzt. Hier bietet sich vor allem eine RESTful-API an. Alle weiteren Verwaltungstools sollten auf einer solch standardisierten Schnittstelle aufsetzen statt auf einer proprietären API, die spezielle Kenntnisse erfordert und im Problemfall zu besonderen Herausforderungen führt.
Die gebotenen Tools sollten vor allem Standardaufgaben vereinfachen. So müssen Administratoren häufig die Hosts mit dem Array verbinden und den benötigten Speicher entsprechend der von Ihren internen Kunden definierten Eigenschaften bereitstellen. Bei den meisten Speicher-Arrays gibt es Festplattenpools oder Aggregate, die für bestimmte Anforderungen wie Backup, DB-Archivprotokolle, gemeinsam genutzte Dateisysteme, Arbeitslasten virtueller Maschinen und mehr definiert sind. Dieses Konzept wird auch als Tiering bezeichnet.
Jede Richtlinie enthält Parameter wie Festplattentyp, RAID-Level und Ausfallsicherheit. Die Zuweisung von Kapazität für diese Pools erfordert ausführliche Planung, bei der die Pläne und Vorhersagen des Unternehmens zum Speicherbedarf eingeholt werden müssen. Dies kann sehr komplex sein und der IT-Verantwortliche riskiert, dass er entweder keinen Platz mehr im Pool hat oder unschöne Migrationen durchführen muss, falls er keine Kapazität hinzufügen kann. Einfacher ist es, keine speziellen Einstellungen für einen Speicherpool definieren zu müssen, wenn es eine Gleichheit von Speicherpools gibt und das Einzige, was Administratoren aktivieren oder deaktivieren können, der SSD-Cache ist.
Die Optimierung der Performance aller Pools wird anschließend durch ein automatisches Performancemanagement gewährleistet und der Administrator kann erforderlichenfalls durch Quality-of-Service-Einstellungen darauf Einfluss nehmen, wie sich die Systemperformance auf die verschiedenen Anwendungen verteilt. Ein solches System vereinfacht die Datenverwaltung, reduziert die Kosten und hat den zusätzlichen Vorteil, dass Storage-Administratoren die Speicherverwaltung leicht an andere Gruppen delegieren können. Sie weisen nur so viel Speicherplatz zu wie benötigt wird, während dieser Pool in Zukunft in der Größe verändert werden kann. Delegation ist sehr wichtig in der heutigen sich entwickelnden IT-Umgebung, in der die Admins auch Speicher bereitstellen können müssen.
Zu viele Kombinationsoptionen sorgen für Probleme
Sogenannte "Construction Kits" scheinen in erster Instanz eine attraktive Option zu bilden, weil sich mit ihrer Hilfe der Storage auf die eigenen Bedürfnisse anpassen lässt. In der Praxis bringt ein Zuviel an Anpassungsmöglichkeiten allerdings eine Reihe von Problemen mit sich. So können sie zu einem Albtraum für Beschaffung, Betrieb und Support mutieren, da es zu viele Kombinationen gibt und nur einige davon erlaubt sind.
Ein paar wohl erwogene Konfigurationen machen das Leben für IT-Administratoren und ihre Kollegen in der Beschaffung bedeutend einfacher. Sie müssen sich nicht mit einem sechsseitigen Bestellformular mit kryptischen Abkürzungen herumschlagen. Im Fall standardisierter Konfigurationen ohne kundenspezifische Anpassungen ist auch der Support im Fall eines unerwarteten Verhaltens in der Lage, das Problem leichter zu identifizieren und zu erheben. Auch wird das Handbuch weit weniger umfangreich und komplex sein, weil weniger Optionen zu beachten sind.
Flexibilität einplanen
Die IT-Infrastruktur im eigenen Rechenzentrum steht in zunehmender Konkurrenz zur Public Cloud. Unternehmen erwarten von ihrer eigenen IT dieselbe Flexibilität und Möglichkeiten, Ressourcen zu erweitern und wieder zurückzufahren, das sie aus der Public Cloud kennen. Gerade mit herkömmlichen Ansätzen für Speicher-infrastrukturen lässt sich eine derart flexible Umgebung nicht realisieren.
Nehmen wir ein Beispiel, um zu verdeutlichen, dass dieses flexible Wachstum und Schrumpfen nicht aus der Luft gegriffen ist: Eine beliebte Fernsehserie wollte die Beteiligung des Publikums erhöhen, indem sie den Zuschauern die Möglichkeit bot, nicht nur Kommentare in sozialen Medien und auf der Website der Serie abzugeben, sondern sich auch durch das Hochladen eigener Videos einzubringen. Diese zündende Idee entstand nicht in der Planungsphase, sondern als die Serie bereits lief. Hätte die IT-Abteilung die Hardware bestellen müssen, die für das Hosting all dieser Videos erforderlich ist, hätte die Realisierung des Projekts Monate gedauert, und die Serie wäre zu diesem Zeitpunkt bereits beendet gewesen. Und nach dem Ende der Serie wäre die Plattform für das Hosting der Videos überflüssig gewesen und die teure Hardware wäre ungenutzt geblieben.
Dies ist keine vernünftige Art zu investieren. Natürlich lässt sich die Public Cloud nutzen, um kurzfristigen Speicherbedarf zu decken. Das ist allerdings mit einem Kostennachteil verbunden, dessen sich Unternehmen nicht immer bewusst sind. Bei aller Flexibilität ist Speicherkapazität in der Cloud, als Preis pro TByte betrachtet, teurer als Storage im eigenen Rechenzentrum, selbst ohne die Verbindungskosten zu berücksichtigen. Organisationen tendieren dazu, diese Kosten außer Acht zu lassen, aber die Übertragung großer Datenmengen in die Cloud und zurück ist eine kostspielige Angelegenheit im Vergleich zur Nutzung eines unternehmenseigenen Netzwerks.
Elastisches Preismodell
Die Lösung muss daher in der Realisierung einer Speicherinfrastruktur im eigenen Rechenzentrum liegen, die das flexible Nutzungsmodell der Cloud bietet, aber zu einem viel niedrigeren Preis, eine private Cloud im vollen Sinne des Wortes. Eine Organisation, die eine solche Cloud mit dem erforderlichen elastischen Preismodell realisieren möchte, muss einen Partner finden, der das unterstützt. Der Partner muss zum einen die Möglichkeit bieten, eine große Speicherkapazität vor Ort zu installieren und nur die Kapazität zu berechnen, die zu einem bestimmten Zeitpunkt benötigt wird, einschließlich der Möglichkeit, die genutzte Kapazität zu verringern und entsprechend weniger zu bezahlen.
Zum anderen muss er auch Dienste anbieten, die denen eines Public-Cloud-Providers entsprechen. Dazu gehören die bereitgestellten Softwarefunktionen wie Multiprotokoll-Support, Host-Integrationen, erweiterte Datenreplikations- und -Kompressionsfunktionen, umfassender Support vor Ort rund um die Uhr und eine 100-prozentige Verfügbarkeitsgarantie. Mit einer solchen Infrastruktur und dem damit verbundenen elastischen Preismodell ist eine Organisation gut auf die Zukunft vorbereitet.
Intelligenz steckt in Software
Vielfach herrscht heute die Wahrnehmung vor, dass All-Flash-Systeme Stand der Technik sind und die beste Performance liefern. Diese Fixierung auf das Speichermedium führt allerdings nicht automatisch zu guten Resultaten. Letztendlich wird die Bedeutung des Speichermediums für die Storage-Performance häufig zu hoch bewertet. Performance und Intelligenz einer modernen Storage-Lösung liegen vielmehr in der Software. Es geht darum, auf effiziente Weise, das heißt kostengünstig, Gebrauch von den Ressourcen zu machen.
Eine solche Lösung wird beispielsweise auf Machine Learning (ML) setzen. ML-Algorithmen können eine zusammenhängende Historie jedes Datenabschnitts aufrechterhalten, den das System seit seiner Installation erhalten hat. Durch die Beobachtung des gesamten Netzwerkverkehrs zum Speichersystem verwendet das ML-Modul die I/O-Historie, um Korrelationen in Datenzugriffsmustern zu erkennen, und kann auf dieser Basis Vorhersagen zukünftiger I/O-Anforderungen treffen, die präventiv im Cache bereitgestellt werden. Wenn die meisten I/O-Anfragen dann direkt aus dem RAM bedient werden (was um ein Hundertfaches weniger Latenzen als Flash aufweist), können Storage-Administratoren eine höhere Anwendungsleistung erwarten als von herkömmlichen All-Flash-Arrays.
Fazit
Eine bestehende Speicherinfrastruktur einfacher zu gestalten, ist in nur sehr bescheidenem Ausmaß möglich. Vielmehr gilt es, bei der Auswahl der Produkte auf eine Anzahl entscheidender Punkte zu achten: auf Technologie ohne historischen Ballast, möglichst standardisierte Hardware und Schnittstellen, die Vermeidung eines Wildwuchses an Konfigurationsoptionen, eine Flexibilität, die es mit der Public Cloud aufnehmen kann und nicht zuletzt eine intelligente Software für Steuerung und Management.
(jp)
Christian Barmala ist Solutions Architect bei Infinidat.