ADMIN
2023
07
2023-06-29T12:00:00
Optimiertes Rechenzentrum
SCHWERPUNKT
094
Rechenzentrum
Energiemanagement
Künstlicher Intelligenz
Energieeffizienz im Cloud-Rechenzentrum
Cool bleiben
von Raymond Ma
Veröffentlicht in Ausgabe 07/2023 - SCHWERPUNKT
Rechenzentren verbrauchen viel Strom – Nachhaltigkeit spielt für die Betreiber deswegen eine zentrale Rolle. Es geht aber nicht nur um grünen Strom und Photovoltaik auf dem Dach, sondern vor allem um Energieeffizienz und um innovative Technologien innerhalb der Rechenzentren. Davon steht einiges in den Startlöchern. In diesem Artikel dreht es sich vor allem um eine wirkungsvolle Kühlung und wie KI und Cloud beim Strom sparen helfen.

In Frankfurt am Main stehen wegen des DE-CIX-Internet-Knotens so viele Rechenzentren, dass sie 25 Prozent des gesamten Stroms der Stadt verbrauchen. Insgesamt machen Rechenzentren rund 0,6 Prozent des gesamten Energiekonsums in Deutschland aus, Tendenz steigend. Es ist daher wichtig, deren Energiehunger auf ein Minimum zu senken – nicht nur wegen der Stromkosten, sondern auch um Klimaneutralitätsziele zu erreichen.
Ansatzpunkte dafür gibt es mehrere: zum einen der Stromverbrauch der eingesetzten IT-Komponenten, zum anderen vor allem die Kühlsysteme und -technologien. Als dritte Komponente können weitere KI- und Datenanalyse-Techniken mit Blick auf zukünftige Entwicklungen (Wetter, Zeitfaktoren, vorhersehbare Ereignisse) die Energielast optimieren. Grüne Rechenzentren gehen keine Kompromisse in Bezug auf Leistung, Zuverlässigkeit oder Sicherheit ein, wenn es darum geht, wesentlich effizienter zu arbeiten.
Kühlung kennt viele Facetten
Beim Thema Kühlung gibt es verschiedene Ansätze. Verschwenderisch ist es, eine Klimaanlage zu installieren, die Serverräume stumpf auf eine vorgegebene Temperatur zu bringen und die warme Luft einfach in die Umgebung zu blasen. Besser: Das dritte Rechenzentrum von Alibaba Cloud in Frankfurt am Main etwa verfügt über ein Free-Cooling-System, bei dem die natürlich kühle Umgebungsluft anstelle von künstlicher Kühlung Verwendung findet. Andere Rechenzentren nutzen die Abwärme der Server über eine Wärmepumpe, um damit umliegende Gebäude oder Häuser zu heizen. Hierbei gibt es aber durchaus technische Hürden zu nehmen, weil die Abluftwärme eventuell ein zu geringes Temperaturniveau aufweist, um sich vernünftig nutzen zu lassen.
In Frankfurt am Main stehen wegen des DE-CIX-Internet-Knotens so viele Rechenzentren, dass sie 25 Prozent des gesamten Stroms der Stadt verbrauchen. Insgesamt machen Rechenzentren rund 0,6 Prozent des gesamten Energiekonsums in Deutschland aus, Tendenz steigend. Es ist daher wichtig, deren Energiehunger auf ein Minimum zu senken – nicht nur wegen der Stromkosten, sondern auch um Klimaneutralitätsziele zu erreichen.
Ansatzpunkte dafür gibt es mehrere: zum einen der Stromverbrauch der eingesetzten IT-Komponenten, zum anderen vor allem die Kühlsysteme und -technologien. Als dritte Komponente können weitere KI- und Datenanalyse-Techniken mit Blick auf zukünftige Entwicklungen (Wetter, Zeitfaktoren, vorhersehbare Ereignisse) die Energielast optimieren. Grüne Rechenzentren gehen keine Kompromisse in Bezug auf Leistung, Zuverlässigkeit oder Sicherheit ein, wenn es darum geht, wesentlich effizienter zu arbeiten.
Kühlung kennt viele Facetten
Beim Thema Kühlung gibt es verschiedene Ansätze. Verschwenderisch ist es, eine Klimaanlage zu installieren, die Serverräume stumpf auf eine vorgegebene Temperatur zu bringen und die warme Luft einfach in die Umgebung zu blasen. Besser: Das dritte Rechenzentrum von Alibaba Cloud in Frankfurt am Main etwa verfügt über ein Free-Cooling-System, bei dem die natürlich kühle Umgebungsluft anstelle von künstlicher Kühlung Verwendung findet. Andere Rechenzentren nutzen die Abwärme der Server über eine Wärmepumpe, um damit umliegende Gebäude oder Häuser zu heizen. Hierbei gibt es aber durchaus technische Hürden zu nehmen, weil die Abluftwärme eventuell ein zu geringes Temperaturniveau aufweist, um sich vernünftig nutzen zu lassen.
Optimierungspotenziale bietet auch die maximale Raumtemperatur. Je höher sie liegt, umso weniger muss gekühlt werden. Der begrenzende Faktor beim Kühlen eines Rechenzentrums sind die Geräte, die die geringste maximale Temperatur vorgeben, bei der sie noch einwandfrei funktionieren. Gibt es mehrere Server, die nah beieinander liegen und lokal viel Hitze erzeugen, kann es nötig sein, die Kühlung hochzufahren, um die lokale Raumtemperatur unter diesem Grenzwert zu halten. Durch geschickte Verteilung hitzeerzeugender Hardware über das Rechenzentrum (oder über mehrere Räume) lässt sich die Raumtemperatur moderat anheben und damit die nötige Kühlleistung senken, ohne dabei Gerätefunktionen zu beeinträchtigen. Das senkt die Gesamtkühlleistung und die Umweltlast insgesamt erheblich.
Ebenfalls möglich und vielfach schon genutzt ist kühlende Luft von außen. Aus diesem Grund stehen zahlreiche Rechenzentren in Skandinavien, weil dort die Umgebung über viele Monate im Jahr deutlich kühler als in Zentral- oder Südeuropa ist und sich sowohl die Luft als auch Wasser zum Kühlen einsetzen lässt.
Flüssigkühlung international spitze
Luft ist als Kühlmittel (mit oder ohne Klimaanlage) nur mäßig effizient. Die Kompression und große Luftmengenumwälzung erfordern selbst viel Energie. Wesentlich besser arbeiten flüssige Kühlmittel. Alibaba Cloud etwa nutzt in seinen Rechenzentren die "Soaking-Server"-Technologie, bei der die Server und andere IT-Hardware komplett in Kühlmittel getaucht und so betrieben werden.
Der Wirkungsgrad der flüssigen Kühlung ist wesentlich höher als in traditionellen Klimaanlagen und Lüftersystemen und kann den Energieverbrauch um 70 Prozent senken. Die Rechenzentren erreichen mit diesen Kühlungstechniken eine Power Usage Effectiveness (PUE-Faktor) von 1,09. Das heißt, von 109 Kilowattstunden werden 100 von der IT-Hardware konsumiert und nur 9 von der restlichen Technik im Rechenzentrum – etwa für Kühlung, Licht, Heizung, Sicherheitssysteme. Das markiert einen wichtigen technologischen Fortschritt. Bisher galten Rechenzentren mit einem PUE von 1,2 schon als äußerst effizient.
Darüber hinaus können Unternehmen die Technologie von Lüftungsgeräten und Luftkühlern nutzen, um den WUE-Wert (Water Usage Effectiveness) des Rechenzentrums auf bis zu 0,45 l/kWh zu senken. Gegenüber herkömmlichen Kühlturmsystemen lassen sich so mehr als 80 Prozent einsparen.
KI und Datenanalyse zur Energieoptimierung
Mit innovativen KI- und Datenanalysetechnologien lässt sich der CO2-Fußabdruck von Rechenzentren auf einen Blick prognostizieren, kontrollieren und verwalten. Sie erkennen sehr schnell Anomalien und reagieren entsprechend automatisiert, um sie entweder zu melden oder – falls möglich – direkt zu beheben.
Mit einem erweiterten SaaS-Tool wie dem Energy Expert von Alibaba Cloud, das Echtzeitdaten verfolgt und aufbereitet, können Rechenzentrumsbetreiber und Unternehmen CO2-Emissionen planen, Ziele setzen und die Umweltauswirkungen begrenzen. Das Werkzeug hilft direkt dabei, mit Prüfinstituten wie dem TÜV Rheinland Nachhaltigkeitszertifizierungen zu erlangen.
Künstliche Intelligenz ist außerdem hilfreich, um die zukünftige Energielast eines Rechenzentrums zu prognostizieren, da diese je nach Uhrzeit, Wetter und besonderen (Shopping-)Ereignissen stark schwanken kann. Während Filme häufig am Abend, an Wochenenden und Feiertagen gestreamt werden, sind Business-Anwendungen eher zu Arbeitszeiten unter Last. Da Server an der Belastungsgrenze deutlich mehr Energie verbrauchen, lässt sich durch geschickte Prognosen und automatisierte Lastverteilung der Gesamtstromumsatz senken.
Ein weiterer Faktor sind schwankende Energieerträge aus erneuerbaren Energien wie Solaranlagen und Windrädern, die Strom zu anderen Kosten erzeugen als Vertragspartner über das öffentliche Stromnetz. Auch helfen KI-basierte Algorithmen dabei, die Lastverteilung so zu optimieren, dass ein Maximum an regenerativer Energie genutzt wird.
Ein nicht zu unterschätzender Faktor für den Gesamtstromkonsum (und nicht nur den PUE-Wert) ist auch die Effizienz der Server. So bringen heutzutage leistungsstarke Serverchips bis zu 60 Milliarden Transistoren pro Chip unter. Damit übertreffen sie die branchenübliche Leistungsfähigkeit um bis zu 20 Prozent. Gleichzeitig steigern sie die Energieeffizienz um bis zu 50 Prozent.
Cloudmigration senkt Umweltbelastung
Dank intelligenter Algorithmen erreichen Cloud-Betriebssysteme ein nie dagewesenes Maß an Effizienz. Heute lassen sich tausende Server auf der ganzen Welt in einen nahtlosen Supercomputer integrieren und setzen dabei Echtzeit-Spitzenverarbeitungskapazitäten von 3,63 TByte pro Sekunde um. Die Ressourcennutzung der Server steigt damit um 10 bis hin zu 40 Prozent, erhebliche Kostenreduzierung inklusive.
Letztlich kann also allein die Migration der eigenen IT-Infrastruktur in die Cloud ein erster und wichtiger Schritt zu nachhaltiger Dekarbonisierung sein: Kleinere On-Premises-Rechenzentren haben häufig einen schlechten PUE-Wert von 1,5 bis 2 oder mehr. Moderne Cloudzentren sind wie beschrieben deutlich energiesparender und erreichen PUE-Werte zwischen 1,2 und 1,1.
Cloudnative Infrastrukturen erleichtern darüber hinaus eine automatische Lastverteilung und Optimierung und können KI-Anwendungen automatisch auf Systeme verschieben, die über entsprechende Hardware verfügen. Das heißt, die Migration in die Cloud führt nicht nur zu skalierbaren und flexiblen Infrastrukturen, über die sich Kosteneinsparungen erzielen lassen – sie verkleinert auch den CO2-Fußabdruck, weil sie gezielt die Energieeffizienz optimiert und nachhaltige Energiequellen priorisiert.
Fazit
Professionelle Rechenzentren nutzen vielfältige Möglichkeiten, um den Stromverbrauch zu senken, entstandene Hitze für andere Zwecke zu nutzen und nachhaltige Energiequellen optimal einzubinden. Einen deutlichen Sprung in der Energieeffizienz machen dabei flüssigkeitsgekühlte Racks und Server sowie der Einsatz stromsparender Serverprozessoren aus. Allein die Migration des eigenen Rechenzentrums in die Cloud reduziert den CO2-Fußabdruck und bringt uns der Dekarbonisierung einen großen Schritt näher.
(ln)
Raymond Ma ist General Manager of Europe bei Alibaba Cloud.