Strom ist für viele Rechenzentren der größte Betriebskostenfaktor, sei es vor Ort oder in der Cloud. Da nach den Compute-Ressourcen die Storage-Systeme am meisten zum Stromverbrauch beitragen, kann die Datenspeicherung einen starken Unterschied machen. Der Artikel zeigt, wie sich in Anbetracht steigender Energiekosten beispielsweise durch Technologien wie Flash, Tiered Storage oder auch cloudnative Containerumgebungen Kosten einsparen lassen.
Die Zeiten von günstigem Strom sind vorbei und trotz aller technischen Fortschritte wird immer mehr Energie verbraucht, denn die Anzahl neuer Installationen weltweit wächst. Derzeit gibt es laut Bitkom allein in Deutschland über 3000 Datacenter mit mehr als 40 Kilowatt IT-Anschlussleistung und mindestens zehn Serverracks sowie rund 47.000 kleinere IT-Installationen, Tendenz steigend. Der Strombedarf dieser Rechenzentren lag 2022 bei geschätzt 16 Milliarden Kilowattstunden und es ist von einem um rund fünf Prozent steigenden Bedarf pro Jahr bis 2030 auszugehen. Zum Vergleich: Vor fünf Jahren betrug der Stromkonsum noch 2,8 Milliarden Kilowattstunden.
Die Ausgaben für Strom und Kühlung haben sich über die letzte Dekade hinweg um mehr als den Faktor zehn erhöht und die IT-Umgebung eines Hyperscale-Cloud-Datencenter verbraucht heute zwischen 20 bis 50 MW im Jahr – das ist so viel Strom wie für rund 35.000 Haushalte. Treiber ist nicht zuletzt die verstärkte Nachfrage nach Cloud-Computing-Diensten, Digitalisierung sowie datenintensiven Anwendungen wie KI und Big Data Analytics, sowohl im Core als auch im Edge.
Der Anteil erneuerbarer Energien lag bis 2020 übrigens noch im einstelligen Prozentbereich. Schätzungen zufolge sind Rechenzentren weltweit für bis zu drei Prozent des Stromverbrauchs verantwortlich und sollen bis 2030 einen Anteil von mehr als vier Prozent erreichen. Dieser Energiehunger wird auch mit neuen Technologien weiter steigen, etwa durch High-Density-Architekturen. Die hierbei erzeugten Datenmengen steigen aufgrund von immer mehr inaktiven und unstrukturierten Daten (über 80 Prozent) stetig an. Die Energieeffizienz zu verbessern und den Stromkonsum zu senken, hat aus Betreibersicht deshalb aus Kosten-, EU-Regulierungs- und Wettbewerbsgründen hohe Priorität.
Die Zeiten von günstigem Strom sind vorbei und trotz aller technischen Fortschritte wird immer mehr Energie verbraucht, denn die Anzahl neuer Installationen weltweit wächst. Derzeit gibt es laut Bitkom allein in Deutschland über 3000 Datacenter mit mehr als 40 Kilowatt IT-Anschlussleistung und mindestens zehn Serverracks sowie rund 47.000 kleinere IT-Installationen, Tendenz steigend. Der Strombedarf dieser Rechenzentren lag 2022 bei geschätzt 16 Milliarden Kilowattstunden und es ist von einem um rund fünf Prozent steigenden Bedarf pro Jahr bis 2030 auszugehen. Zum Vergleich: Vor fünf Jahren betrug der Stromkonsum noch 2,8 Milliarden Kilowattstunden.
Die Ausgaben für Strom und Kühlung haben sich über die letzte Dekade hinweg um mehr als den Faktor zehn erhöht und die IT-Umgebung eines Hyperscale-Cloud-Datencenter verbraucht heute zwischen 20 bis 50 MW im Jahr – das ist so viel Strom wie für rund 35.000 Haushalte. Treiber ist nicht zuletzt die verstärkte Nachfrage nach Cloud-Computing-Diensten, Digitalisierung sowie datenintensiven Anwendungen wie KI und Big Data Analytics, sowohl im Core als auch im Edge.
Der Anteil erneuerbarer Energien lag bis 2020 übrigens noch im einstelligen Prozentbereich. Schätzungen zufolge sind Rechenzentren weltweit für bis zu drei Prozent des Stromverbrauchs verantwortlich und sollen bis 2030 einen Anteil von mehr als vier Prozent erreichen. Dieser Energiehunger wird auch mit neuen Technologien weiter steigen, etwa durch High-Density-Architekturen. Die hierbei erzeugten Datenmengen steigen aufgrund von immer mehr inaktiven und unstrukturierten Daten (über 80 Prozent) stetig an. Die Energieeffizienz zu verbessern und den Stromkonsum zu senken, hat aus Betreibersicht deshalb aus Kosten-, EU-Regulierungs- und Wettbewerbsgründen hohe Priorität.
Stellschrauben für mehr Energieeffizienz
Um Datacenter effizienter zu betreiben, gilt es heute, sämtliche Potenziale auszuschöpfen. Dazu gibt es grundsätzlich zwei Möglichkeiten: Zum einen neue Technologien implementieren und zum anderen die Prozesse und existierende Verfahren so anpassen, dass sich der Energieverbrauch und die Speicherkapazitäten optimieren lassen. Zur IT-Infrastruktur neben Servern, Festplatten, SSDs und Netzwerkgeräten gehören Kühlung, Stromverteilung, Notstrombatterien und -generatoren, Beleuchtung, Brandschutz et cetera. Es gibt damit jede Menge an Optimierungspotential und Einflussfaktoren.
Die Stromverbrauchseffektivität – Power Usage Effectiveness (PUE) – ist eine gängige Methode zur Berechnung der Kosten einer Infrastruktur. Dabei handelt es sich um das Verhältnis zwischen dem Stromhunger der Infrastruktur und der den Geräten zugeführten Energie. Bei einem theoretischen PUE-Wert von 1,0 würden die Komponenten 100 Prozent der im Rechenzentrum eingesetzten Energie erhalten. Der Durchschnittswert liegt derzeit laut Untersuchungen bei 1,67.
Heute sind Unternehmensspeicher und hochgradig virtualisierte hyperkonvergente Systeme über Software-definierte Speicherplattformen deshalb ohne integrierte Effizienzverbesserungsmaßnahmen nicht mehr wirtschaftlich zu betreiben. Dazu zählen Datendeduplizierung, Komprimierung, Thin Provisioning, Delta Snapshots, Erasure Coding, SSD-NAND-Chips und auch Tape im Archivumfeld. In diesem Zusammenhang ist die Nutzung energiesparender Technologien mithilfe optimierter Kühlverfahren sowie der Wiederverwendung von Wärme als ein wichtiger Schritt hin zu mehr Energieeffizienz zu nennen. Auch staatliche Akteure haben sich zum Beispiel mit der Green-IT-Initiative [1] der Bundesrepublik Deutschland dem Thema Energieverbrauch im ITK-Bereich verschrieben.
Storage als Großverbraucher
Laut einer Untersuchung des US-amerikanischen Lawrence Berkeley National Laboratory belief sich der Anteil der Speichersysteme am Gesamtenergieverbrauch von Rechenzentren im Jahr 2014 noch auf acht Prozent. 2016 stieg der Anteil bereits auf elf Prozent und 2021 lag der Wert gemäß Gartner bei 18 Prozent. Die Effizienz bei der Datennutzung ist damit ein kritischer Punkt. Die größte Herausforderung: Der Stromkonsum von Serversystemen inklusive Kühlung – er ist seit 2017 um 266 Prozent gestiegen und weiter der dominante Verbrauchsblock im Datacenter.
Eine physische Trennung von Storage- und Compute-Plattformen kann damit sinnvoll sein. Bislang wird ein Großteil der Energie, den immer dichter gepackte Speichersysteme verbrauchen, für Kühlung aufgewendet. Daran dürfte sich so lange nichts ändern, wie beim Enterprise-Storage im PByte-Bereich überwiegend konventionelle Festplatten zum Einsatz kommen. Erst ein konsequenter Einsatz von NAND-Flash und langfristig weiteren Halbleiterspeichern zusammen mit der Speicherung von DNA-Daten im Archivbereich hätten theoretisch das Potenzial, die Ressourcenverbräuche über den Lebenszyklus nachhaltig zu begrenzen.
Die zwei C: Cloud und Containerisierung
Unternehmen sollten sowohl lokal als auch in der Cloud bei transaktionsstarken Tier-0/1-Anwendungen wie Datenbanksystemen auf die energieeffizienteste Hardware und Kühlverfahren setzen; bei Server- und Storage-Systemen ist das Flash, zum Beispiel High-Density QLC. Sofern applikationsseitig sinnvoll, sind physische Server im Optimalfall immer hochgradig zu virtualisieren und mit einer möglichst hohen Anzahl an virtuellen Maschinen zu betreiben.
Die Containerisierung mit Kubernetes und Co. birgt noch mehr Potenzial, um CO2-Emissionen von cloudnativen Ressourcen oder lokalen IT-Infrastrukturen zu verringern. Denn Kubernetes hat direkte, positive Auswirkungen auf die Serverauslastung und deren CO2-Emissionsintensität. Zwar wurde die Migration zu Hyperscale-Umgebungen von Innovationen bei der Serverauslastung begleitet, die auf Konsolidierungs- und Softwareverwaltungssysteme wie Hypervisor und Containertechnologien zurückzuführen sind. Dies gilt jedoch nicht überall: Die meisten Server laufen bis heute kaum bis zu ihrer Maximalkapazität, selbst die effizientesten Systeme weisen in der Regel nur eine Auslastung von etwa 50 Prozent vor, meist laufen die Systeme sogar nur mit einem Auslastungsgrad von zehn bis 25 Prozent.
Doch gerade die Kapazitätsauslastung von Servern ist seit jeher einer der wichtigsten Faktoren bei der Bestimmung der Energieeffizienz. Mit cloudnativen, containerisierten Ansätzen lassen sich deutlich mehr Anwendungen auf der gleichen Hardware betreiben und damit die Auslastung erhöhen. Ein Unternehmen kann identische Applikations-Workloads mit einer geringeren Anzahl an VMs fahren, als es ohne Kubernetes möglich wäre. Auch bedarf es mithilfe der Cloud bei kurzfristig aufgesetzten Projekten keiner neuen IT-Infrastrukturen.
Weniger Server bedeuten nicht zuletzt einen geringeren Platzbedarf, in Summe also weniger Energiebedarf bei höherer betrieblicher Effizienz. Ein weiterer Punkt betrifft die CO2-Emissionen von Anwendungen im Cloudbetrieb. Die Emissionswerte einer Kubernetes-Umgebung variieren ja meist in Abhängigkeit der regionalen Kosten des jeweiligen Cloudproviders. Mit Containertechnologien lassen sich Cloudressourcen aber relativ einfach auf günstigere Standorte verlagern, um basierend auf dem jeweiligen Strommix flexibel über die Platzierung von Workloads zu entscheiden. Da Kubernetes als cloudnative Implementierung von Natur aus portabel ist, sind die dafür notwendigen technischen Voraussetzungen vorhanden.
Mehr Software-defined Storage
Eine softwarebasierte Ebene ist dafür verantwortlich, funktionale Abhängigkeiten auf der Hardwareseite zu vermeiden. Sie erzeugt damit aber auch eine Vielzahl neuer virtueller Instanzen, die in Bezug auf Verwaltung, Sicherung und Monitoring komplex werden können und meist schnell wachsen. Deswegen ist für Container und Microservices ein Ansatz des proaktiven Infrastrukturmonitorings wichtig, kombiniert mit hoher Automatisierung und Tools wie AutoQoS mit Flash.
Abhängigkeiten verlagern sich und neue Tools und APIs für Container bei hybriden Cloud-Deployments sind bei der Planung der richtigen Speicher- und Anwendungsumgebung zu berücksichtigen. Im Software-defined Datacenter (SDDC) werden Core-to-Edge alle Storage-Services auf eine unabhängige logische Software-Kontrollebene, die Control Plane, verlagert. Sie regelt die Verwaltung wie Provisioning, LUN-Konfiguration, Replikation, Deduplizierung, Komprimierung, Snapshots, Zugriffe bei den angeschlossenen Speicherressourcen et cetera.
Falls Storage- und CPU-Ressourcen in einem hyperkonvergenten System zusammengefasst sind, kann der Storage diese Systeme zum Beispiel über APIs von einer zentralen SDS-Lösung mitverwalten, selbst wenn sich diese in der Cloud befinden. Die Rede ist dann von einem Software-defined Datacenter mit Schwerpunkt Storage, etwa VMwares vSAN.
Flash – der Datenträger machts
Steigende Datenmengen machen die Speicherung auf Festplatte (HDD) weiterhin unumgänglich. Die Wattzahl eines Festplattenlaufwerks wurde 2005 noch auf rund 14 W/HDD geschätzt. Seitdem ließ sich dieser Wert um rund 50 Prozent auf etwa 8,5 W/HDD im Jahr 2015 und aktuell beim Stromverbrauch einer 16- bis 18-TByte-HDD auf 4,3 bis 5,0 Watt senken. Höhere Energieeffizienz bedeutet, dass für die konsumierte Energie mehr Leistung zur Verfügung steht, was wiederum die Gesamtbetriebskosten senkt.
Eine weitere Kennzahl zur Bestimmung der Energieeffizienz ist neben der Drive-Performance der Laufwerks-Wirkungsgrad, definiert als Leistung pro Watt. Bei einem Random-Read/Write-4K/16Q-Profil liegt der Stromverbrauch einer HDD bei realistischen 300 bis 400 IOPS zwischen 10 und 5 Watt. Der Energiehunger hängt vom Schreib-Lese-Verhältnis, der Warteschlangentiefe, Blockgrößen, Durchsatzraten und Drives-Writes-per-Day bei SSDs ab.
Deshalb bleibt der einfache Vergleich von Storage-Medien auf dem Papier ohne reale Applikation nur sehr bedingt aussagekräftig, was beim Design immer zu berücksichtigen ist. Seit 2010 ist die Wattzahl einer SSD relativ konstant bei 6 W pro Drive geblieben, während die Wattzahl pro TByte (TB) gestiegen ist. Aktuell erreicht eine Hochleistungs-NVMe-SSD bei 4K eine Leistung von über 90.000 IOPS/Watt mit Random Reads, und zwar mit Latenzzeiten zwischen 70μs (Read) bis 10μs (Write) bei rund 1,5 Millionen IOPS pro SSD-Drive.
In Bezug auf die genannten Leistungsparameter – sprich Kosten pro Zugriff und Energieeffizienz – schlägt die SSD bei transaktionsorientierten Profilen im direkten Vergleich somit jede schnelle HDD. Was die Gesamtbetriebskosten betrifft, spielen aber noch weitere Faktoren eine Rolle: Neben dem Platzbedarf und der Laufwerkskapazität sind das die Datenreduktion mit Tools zur Deduplizierung und Datenkompression. Daraus resultieren über das Jahr gerechnet die Stromkosten pro KWh pro Anwendung und Storage-System.
Grundsätzlich stellt sich natürlich immer die Frage, ob ein Unternehmen performance- oder kapazitätsbezogen planen will. Bei File- und Objektspeicher – abhängig von Kapazität und Zugriffsprofil – sieht die Rechnung somit meist anders aus. Hier sind aus Kapazitäts- und Kostengründen weiterhin hochkapazitative HDD-Systeme im Server-Storage-Verbund attraktiv.
Energieffizienz von Speichersystemen bestimmen
Es gibt mehrere Ansätze, um die Energieeffizienz von Speichersystemen zu bestimmen. Da ist zum einen die I/O-Leistungseffizienz: Oft gilt ein Speicherserver, der mit etwa 60 bis 80 Prozent seiner Gesamt-I/O-Leistung arbeitet, als optimal genutzt. Software-definierte Scale-out-Systeme ermöglichen es durch das Hinzufügen weiterer Server, den Betrieb näher an der Belastungsgrenze zu fahren, was natürlich nicht in jeder Applikationsumgebung möglich ist.
Die I/O-Leistungseffizienz wird in IOPS pro US-Dollar beziehungsweise Euro angegeben. Solid State Disks haben wie gesehen einen Vorteil gegenüber Festplatten. Allerdings kann dieser bei dauerhaft hohen Schreiboperationen auch nur sehr gering ausfallen oder sogar ins Negative drehen, Stichwort NAND wear-out. SSDs verbrauchen zudem größere Mengen an Strom, wenn überwiegend nur auf sie geschrieben wird. I/O-Workload-Profile spielen also weiterhin eine Rolle beim energieeffizienten Einsatz entsprechender Speichersysteme.
Zudem ist oft von Kapazitätsleistungseffizienz, also der Speicherleistung pro Watt, die Rede. Der Parameter ist definiert als die Anzahl von gespeicherten Kapazitäten pro Watt Stromverbrauch des Systems. Durch den Einsatz von Effizienztechnologien lässt sich die Kapazitätsleistungseffizienz mehr als verdoppeln. Speichersysteme mit einem Effizienzfaktor von 1,0 sollten immer mehr Daten speichern können als ihnen an Rohkapazität zur Verfügung steht.
Deduplizierung und Delta-Snapshots
EnterpriseClass-Deduplizierung, Thin Provisioning und hochdichter NAND-Flash führen in Kombination zu mehr Energieeffizienz, und zwar über geringeren Strom-, Kühlungs- und Platzbedarf. Gegenüber dieser technologischen Konvergenz werden sich allerdings noch für längere Zeit unterschiedliche herstellerspezifische Plattformen über Software, Hardware, integrierte Stacks et cetera am Markt befinden. Allerdings stellt der wachsende Wettbewerbsdruck einen Katalysator zur beschleunigten IT-Infrastruktur- und Anwendungskonsolidierung über hybride (Multi)-Cloud-Modelle und Standards dar.
Da Speicherbereiche über LUNs bereitgestellt werden, ist der Speicherplatz dazu im Voraus zuzuweisen (Überprovisionierung). Mithilfe der Virtualisierung von Arrays sind Storage-Systeme in der Lage, die Bereitstellung jedes Speicherblocks in einer LUN solange zu maskieren, bis er tatsächlich geschrieben wird. Gegenüber dem Nutzer wird nur der tatsächlich benötigte Speicherplatz reserviert. Dadurch lässt sich mehr Speicher bereitstellen, als tatsächlich vorhanden ist. Dieser Thin-Provisioning-Effekt kann potenziell die Hälfte des Energieverbrauchs pro TByte des benötigten Speichers einsparen, da die Systeme bei der Anschaffung kleiner dimensioniert werden können. Weniger Speicherbedarf hat einen direkten Einfluss auf die benötigte Stellfläche, Klimatisierungsbedarf, Stromverbrauch und Investitionsausgaben.
Ein Delta-Snapshot wiederum stellt eine Art Point-in-Time-Kopie dar, die den Zustand der Daten zu einem bestimmten Zeitpunkt bewahrt. Dazu speichert er nur die Blöcke, die sich von einer bereits vorhandenen vollständigen Kopie der Daten unterscheiden. In Gegensatz dazu sind Klone und Snapshots vollständige Kopien von Daten. Delta-Snapshots basieren auf verschiedenen Formen der Copy-on-Write-Technologie. Blöcke werden nur geschrieben, wenn neue Daten auf sie geschrieben werden. Delta-Snapshots sparen in der Regel 80 bis 98 Prozent der für die Speicherung des Zieldatensatzes erforderlichen Rohkapazität pro Snapshot ein. Je nach Nutzungsprofil sind damit potenziell beträchtliche Energieeinsparungen verbunden.
Vor allem in Backupszenarien werden dieselben Daten häufig mehrfach auf ein Device geschrieben. Die Datendeduplizierung ersetzt diese Mehrfachkopien durch eine Quellkopie und mehrere Verweise darauf, was zu einer Platzersparnis von bis zu 99 Prozent führen kann. Die Deduplizierungsrate bei Produktionsumgebungen und deren Primärspeicher ist allerdings deutlich geringer wie bei Backups. Dedupe-Raten von 3:1 bis zu 5:1 sind erreichbar, wenn Arbeitslasten wie Datenbanken und virtualisierte Infrastrukturen gemischt werden. Server- und Desktop-Virtualisierung profitierten aufgrund der Ähnlichkeit der Images virtueller Maschinen. Deduplizierung in Datenbankanwendungen führt nicht zu deutlichen Kapazitätszugewinnen – es kommt also immer auf den Anwendungsfall an.
Speicher-Effizienztechnologien im Überblick
Methode
Technologievorteil
Kapazitätseinsparung
RAID-5/6 und Erasure Encoding gegenüber RAID-1 (Spiegelung)
Datenintegrität ohne die Verwendung vollständiger Datenkopien.
Beim Ersetzen von RAID 1 rund 40 Prozent.
Thin Provisioning
Virtualisierung von Speicherzuweisungen.
Von 50 Prozent Auslastung auf 80 Prozent und mehr.
Datendeduplizierung
Beseitigung doppelter Inhalte.
20 bis 40 Prozent primär; bis zu 50 Prozent im sekundären Anwendungsumfeld.
Komprimierung
Verkleinerung von Datensätzen innerhalb von Dateien oder Blöcken.
2:1-Komprimierung als Standardverfahren. Im Einzelfall je nach Anwendung/Medium mehr.
Delta-Snapshots
Rekonstruktion von verschiedenen Versionen einer Datei ohne mehrere komplette Datenkopien.
Bei kleinen Änderungsdeltas große Einsparungspotentiale.
Komprimierung: Es kommt darauf an
Bei der Datenkomprimierung ermöglicht es ein Algorithmus, mehr Daten auf weniger Speicherplatz zu speichern. Auch bei der Datenreplikation lässt sich so Zeit und Bandbreite während der Übertragung sparen. Datenkomprimierung kann auf primären, sekundären und tertiären Speicherumgebungen Verwendung finden. Bei Festplatten- und Flash-basierten Speichersystemen über Inline-Compression ist die Optimierung im Gegensatz zu Bändern technisch aufwendiger, wirkt sich auf die Performance aus und ist je nach Art der Daten weniger effektiv, da meist 4- oder 8-KByte-Blöcke gespeichert werden.
Trotzdem liefert die Komprimierung gerade für Flash-Systeme in Bezug auf die Energieeffizienz und Nachhaltigkeit Vorteile. Dazu gehören Parameter wie eine erhöhte logische Kapazität (Faktor 10:1) und geringere Schreibverstärkung, sprich längere Lebensdauer um den Faktor fünf des NAND-Speichermediums. Allerdings gerät das Design des Controllers damit komplexer. Dies kann die Gesamtkosten des Systems je nach Implementierung des Anbieters erhöhen und Leistung kosten.
Band für kalte Daten
Die steigende Menge inaktiver Daten erfordert eine abgestimmte IT-Strategie hinsichtlich der benötigten und geeigneten Datenverwaltungswerkzeuge und IT-Infrastrukturkomponenten. Neben Festplattenentwicklungen wie HAMR und MAMR für mehr HDD-Kapazitäten rückt auf Seiten des Speichermediums neben Flash das LTO-Tape als stromloses Medium für Archivumgebungen bis in den Exabyte-Bereich in den Mittelpunkt. Neue Entwicklungen bei der Haltbarkeit sowie Kapazität spielen für die CO2-Reduktion neben den niedrigen Speicherkosten eine Rolle. Daneben sind Verwaltungstools für File- und S3-Objektdatenformate ein Schlüssel zum energieeffizienten Umgang mit sehr großen Datenmengen.
Bandbibliotheken verbrauchen nur dann Energie, wenn sie online sind, das heißt wenn Daten darauf geschrieben oder für bestimmte Zwecke abgerufen werden. Durch die Migration von kalten und weniger aktiven Daten auf Tape können Unternehmen ihre CO2-Emissionen erheblich reduzieren. Ein aktueller ESG-Report berichtet über eine 6,5-fache Verringerung der CO2-Emissionen, die sich aus der Ausführung von etwa 500 TByte weniger aktiver Daten auf Bandlaufwerken im Vergleich zu HDDs ergibt. Bei einer Speichermenge von 50 PByte sind mit Tape-Archiven so CO2-Einsparungen von über 1000 Megatonnen realisierbar.
Fazit
Der Anteil der Speicherung am gesamten Energiebudget von Rechenzentren soll sich bis zum Jahr 2030 verdoppeln. Container-Technologien wie Kubernetes zur effektiveren Ressourcennutzung sind in diesem Zusammenhang ein wichtiger Baustein. Die eine technische Lösung für alle genannten Herausforderungen wird es in absehbarer Zeit wohl nicht geben. Ein praktikabler Weg besteht deshalb darin, kontinuierlich alle beteiligten Technologien und Prozesse für eine möglichst optimale Ressourcennutzung weiter zu optimieren.