ADMIN
2022
06
2022-05-30T12:00:00
Storage und Backup
AKTUELL
010
Interview
Storage
Interview
»Die passende Strategie muss Cold-Storage, aktive Daten auf HDDs und Flash einbeziehen«
Redaktion IT-Administrator
Veröffentlicht in Ausgabe 06/2022 - AKTUELL
Neue Speichertechnologien machen selten große Schlagzeilen. Doch moderne Systeme bilden zum Beispiel das Fundament für hochleistungsfähige KI-Plattformen. IT-Administrator hat Norbert Deuschle, Gründer des Storage Consortium, nach seiner Einordnung aktueller und zukünftiger Trends im Speichersektor gefragt.

Herr Deuschle, vor vier Jahren haben wir uns schon einmal unterhalten. Themen waren unter anderem das stetige Datenwachstum, hyperkonvergente Speichersysteme und Object Storage. Hat sich im Speicherbereich seit 2018 eigentlich überhaupt etwas getan?
Norbert Deuschle: Ja, denn gerade wegen der ständig weiter steigenden Datenmengen gibt es eine Vielzahl interessanter Entwicklungen. Diese erscheinen nach außen nicht so spektakulär wie etwa Quantenrechner, aber ohne leistungsfähige Speicher- und Datenverwaltungsplattformen sind aktuelle Leuchtturmprojekte bei Digitalisierung, Machine Learning oder Cloud Computing gar nicht vernünftig zu realisieren. Doch bleiben wir kurz bei den Themen Hyperkonvergenz und Objektspeicher: Beim softwaredefinierten HCI-Ansatz ersetzen flexible Speicherpools ja einzelne Speichersysteme. Hier haben sich Skalierbarkeit, Leistungsfähigkeit sowie Optionen für mehr Ausfallsicherheit nebst erweiterten Disaster-Recovery-Fähigkeiten und Cyberschutz mit Software-defined Storage deutlich verbessert.
Wie sieht hier der technische Unterbau aus?
Herr Deuschle, vor vier Jahren haben wir uns schon einmal unterhalten. Themen waren unter anderem das stetige Datenwachstum, hyperkonvergente Speichersysteme und Object Storage. Hat sich im Speicherbereich seit 2018 eigentlich überhaupt etwas getan?
Norbert Deuschle: Ja, denn gerade wegen der ständig weiter steigenden Datenmengen gibt es eine Vielzahl interessanter Entwicklungen. Diese erscheinen nach außen nicht so spektakulär wie etwa Quantenrechner, aber ohne leistungsfähige Speicher- und Datenverwaltungsplattformen sind aktuelle Leuchtturmprojekte bei Digitalisierung, Machine Learning oder Cloud Computing gar nicht vernünftig zu realisieren. Doch bleiben wir kurz bei den Themen Hyperkonvergenz und Objektspeicher: Beim softwaredefinierten HCI-Ansatz ersetzen flexible Speicherpools ja einzelne Speichersysteme. Hier haben sich Skalierbarkeit, Leistungsfähigkeit sowie Optionen für mehr Ausfallsicherheit nebst erweiterten Disaster-Recovery-Fähigkeiten und Cyberschutz mit Software-defined Storage deutlich verbessert.
Wie sieht hier der technische Unterbau aus?
Aufgrund der Fortschritte bei NAND-Flash wie QLC oder Speichernetzwerk-Protokollen mit NVMeOF lassen sich jetzt sogar anspruchsvolle Workloads im Unternehmensumfeld skalierbarer unterstützen. Zudem kam die Verzahnung mit Cloudressourcen im Sinn einer hybriden Daten- und Speicherverwaltungs-Strategie weiter voran. Das Gleiche gilt für Objektspeichersysteme, egal ob als reine Software- oder hybride Implementierung. Ein weiterer Trend geht verstärkt in Richtung Multiprotokoll-Integration, um neben dem Objektspeicher mit S3 auch Dateidienste über eine gemeinsame Plattform zur Storage-Verwaltung zu bedienen.
Wie geht es eigentlich im wachsenden Umfeld cloudnativer Technologien weiter und welche Entwicklungstrends dominieren?
Aufgrund der Beliebtheit von Containern zur Entwicklung und Bereitstellung von Anwendungen rücken die Themen persistenter Speicher und cloudnative Applikationsunterstützung in den Vordergrund. Derartige Technologien ermöglichen es, skalierbare Anwendungen in öffentlichen, privaten oder hybriden Clouds zu erstellen und auszuführen. Container, Mikroservices, unveränderliche Infrastrukturen sowie deklarative APIs stehen für diesen Trend. Aus Speicherverwaltungs-Sicht sind neben der Automatisierung in diesem Umfeld immer mehr Angebote mit Open-Source-Technologien zu beobachten. Diese integrieren Datei-, Block- und Objektspeicherdienste direkt im Applikations-Cluster und führen sie mit anderen Anwendungen beziehungsweise Diensten zusammen. Dadurch wird der cloudnative Cluster autark und über Public Clouds und On-Premises-Bereitstellungen hinweg portabel. Unternehmen sind so in der Lage, ihre Rechenzentren mit dynamischer Anwendungsorchestrierung für verteilte Speichersysteme in lokalen und öffentlichen Cloudumgebungen zu modernisieren.
»Ein Trend geht verstärkt in Richtung Multiprotokoll-Integration«
Wie sieht es in diesem Zusammenhang mit verteilten Dateisystemen aus?
Generell können mit Plattformen wie Kubernetes verteilte Dateisysteme wie NFS und GlusterFS zum Einsatz kommen. Jedoch ist der Einsatz einer Container-fähigen Speicherplattform sinnvoll, die auf die Anforderungen von zustandsabhängigen Workloads in der Produktion ausgelegt ist. Hier wurden mit "Container Storage Interface" Spezifikationen geschaffen, um einen standardisierten, portablen Ansatz zur Implementierung und Nutzung von Storage-Diensten durch Container-Workloads zu beschleunigen. Zu den Optionen gehört dabei neben cloudnativen Speicherlösungen für orchestrierte Systeme aber auch die Möglichkeit zur Einbindung älterer softwaredefinierter Plattformen sowie klassischer Block- und File-Speichersysteme.
Norbert Deuschle
Norbert Deuschle ist seit 1995 als selbstständiger Industrieexperte mit dem Schwerpunkt auf Speicherinfrastrukturen für Rechenzentren tätig. Er blickt auf eine fast 40-jährige Erfahrung in der Industrie zurück. Im Jahr 2005 gründete er das Storage Consortium, eine deutschsprachige Kommunikations- und Informationsplattform sowie Arbeitsgemeinschaft zu Server-, Speicher- und Netzwerkinfrastruktur-Themen für professionelle Rechenzentren und Cloudanbieter.
Auch magnetische Festplatten gibt es ja noch und selbst Tape hat immer noch eine Daseinsberechtigung. Wie geht es hiermit Ihrer Ansicht nach denn in den nächsten Jahren weiter?
Festplatten lassen sich nicht von heute auf morgen durch Flash-Speicher ersetzen. Künftige Generationen von Nearline-HDDs sollen in vier bis fünf Jahren über eine Speicherkapazität von 40 oder 50 TByte verfügen. Das ist für viele kalte Daten und große Archivanwendungen noch immer nicht ausreichend, sodass dem Dauerbrenner Tape weiter eine wichtige Rolle zukommt. Band bleibt eine Schlüsseltechnologie zur langfristigen Archivierung von EBytes an Daten – sowohl für Hyperscaler und cloudbasierte Angebote als auch für lokale Rechenzentren. Bänder sind in der Lage, die Informationen jahrzehntelang zuverlässig und stromlos zu speichern. Wichtig ist deshalb eine passende Cold-Storage-Strategie unter Einbeziehung von Tape in Kombination mit Object Storage sowie aktiven Daten auf HDDs und Flash.
Noch nicht so prominent war bei unserem letzten Gespräch das Thema Ransomware. Wie hat sich diese Gefahr auf das Thema Backup ausgewirkt?
Datensicherung als letzte Verteidigungslinie ist attraktiv, denn ohne saubere Backups ist ein schnelles Recovery im Notfall unmöglich. Backupanbieter haben das erkannt und bieten neben Schutzfunktionen wie erweiterter AES-Verschlüsselung, Multifaktor-Authentifizierung, physischen und logischen Air-Gaps oder unveränderlichen Snapshots verstärkt Dienstleistungen in der Cloud. Leider werden inzwischen auch gezielte Ransomware-Angriffe auf Cloud-Betriebssysteme und Private-Cloud-Implementierungen registriert; diese können mit Datenexfiltration kombiniert sein. Außerdem gefährlich: Die Angriffe haben das Potenzial für weitere Attacken, um die Log4j-Schwachstelle auszunutzen. Gegenmaßnahmen professioneller Cyberschutz-Dienstleister beinhalten deshalb Realtime-Big-Data-Tools, Event-Streaming Prozesse, statische plus dynamische sowie verhaltensbasierte Analysen und Machine Learning zum Schutz und zur Abwehr.
Welche Rolle spielt das Buzzword Künstliche Intelligenz beim Thema Storage?
Aus meiner Sicht ist KI kein Buzzword mehr. Moderne Technologien leisten heute in Bezug auf Leistung, Skalierbarkeit und Kapazität viel mehr als noch vor vier oder fünf Jahren, was sich auf sämtliche Aspekte von KI-Projekten wie Datenpflege und -Management bis hin zum Datenbankdesign positiv auswirkt. Bei Deep-Learning-Projekten etwa bedeutet ein langsamer Speicher eine langsamere maschinelle Lernleistung; das Deep Neural Network stellt ja ein Abbild eines massiv parallelen vernetzten Modells dar. GPUs als massiv parallele Prozessoren erreichen zudem um 100-fach höhere Leistungswerte als eine Standard-CPU. Damit ist offensichtlich, dass für anspruchsvolle KI-Systeme auch eine hochleistungsfähige Speicherumgebung erforderlich ist, um den GPU-Systemen eine entsprechend hohe "Ingest"-Bandbreite für zufällige Zugriffsmuster von kleinen bis großen Files zu liefern – und dies zu vertretbaren Kosten. Hochparallele I/O-Architekturen, GPU/CPU-nahe Konzepte wie Computational Storage, Protokolle wie NVMeOF im Verbund mit QLC-NAND, Storage Class Memory und skalierbare Filesystem-Software stellen eine wirtschaftliche Infrastrukturbasis für diese KI-Applikationsanforderungen.
Herr Deuschle, wir danken für das Gespräch!