Rund 50.000 Besucher folgten Ende November dem Ruf von Amazon Web Services auf seine jährliche Hausmesse re:Invent nach Las Vegas. AWS möchte mit zahlreichen Neuerungen seine klassischen Clouddiensten ebenso beschleunigen wie das Training von KI-Modellen. Nur beim Thema generative KI muss der Anbieter selbst Fahrt aufnehmen. IT-Administrator war vor Ort.
Den Auftakt der Veranstaltung bildete die Keynote von Peter DeSantis, der als Senior Vice President of AWS Utility Computing verantwortlich für sämtliche Infrastrukturdienste des Herstellers ist. Er präsentierte Innovationen und Neuerungen bei den klassischen Services des Anbieters. Den Anfang machte die serverlose Variante des relationalen und mit MySQL kompatiblen Datenbankdienstes Amazon Aurora, den AWS seit 2014 als Teil seines Amazon Relational Database Service (RDS) anbietet. Seit 2017 ist der Service zudem zusätzlich kompatibel zu PostgreSQL und wurde 2018 dann mit "Aurora Serverless" zu einer selbsttätig skalierenden Variante der Datenbank.
Komplett neuer Unterbau für Aurora
Neu im AWS-Portfolio ist nunmehr die "Amazon Aurora Limitless Database", die das angesprochene dynamische Skalieren auf eine völlig neue technische Ebene stellt. Bislang hat die Hauptspeichernutzung der serverlosen Datenbank-Instanzen die Skalierbarkeit vor Grenzen gestellt, die sich nicht einfach umschiffen ließen. Um diese Grenzen zu sprengen, war Grundlagenarbeit notwendig, die in den neuen "Caspian" getauften Hypervisor mündete. Damit ist es erstmalig in AWS ermöglicht, virtuellen Maschinen den maximal nutzbaren Hauptspeicher vorzugaukeln, auch wenn sie diesen bislang mangels Bedarf noch nicht ausreizen. Entsteht diese Anforderung im laufenden Betrieb, gewährt Caspian den angeforderten RAM nach und nach. Sollte auf dem physischen Serverknoten nicht mehr genügend RAM vorhanden sein, ermöglicht der neue Hypervisor nun auch die automatische transparente Migration der Datenbank-VM im Hintergrund auf einen anderen Server mit mehr Ressourcen.
Der eigentliche Clou – die Verteilung der Datenbank-Schreibarbeit auf mehrere Server – ist mit großen Herausforderungen verbunden, wie DeSantis in seiner Keynote darlegte. Um die strengen Konsistenzeigenschaften der Datenbank zu gewährleisten, ist der Datenbankserver auf die Logdateien angewiesen. Diese erfordern exakte Zeitstempel, was im Fall von mehreren Servern ein großes Problem darstellt. Denn die zeitliche Auflösung der herkömmlichen Protokolle zur Zeitsynchronisation wie NTP oder PTP ist einfach nicht ausreichend, um einen adäquaten Schreibdurchsatz zu gewährleisten und gleichzeitig die Konsistenz sicherzustellen.
Den Auftakt der Veranstaltung bildete die Keynote von Peter DeSantis, der als Senior Vice President of AWS Utility Computing verantwortlich für sämtliche Infrastrukturdienste des Herstellers ist. Er präsentierte Innovationen und Neuerungen bei den klassischen Services des Anbieters. Den Anfang machte die serverlose Variante des relationalen und mit MySQL kompatiblen Datenbankdienstes Amazon Aurora, den AWS seit 2014 als Teil seines Amazon Relational Database Service (RDS) anbietet. Seit 2017 ist der Service zudem zusätzlich kompatibel zu PostgreSQL und wurde 2018 dann mit "Aurora Serverless" zu einer selbsttätig skalierenden Variante der Datenbank.
Komplett neuer Unterbau für Aurora
Neu im AWS-Portfolio ist nunmehr die "Amazon Aurora Limitless Database", die das angesprochene dynamische Skalieren auf eine völlig neue technische Ebene stellt. Bislang hat die Hauptspeichernutzung der serverlosen Datenbank-Instanzen die Skalierbarkeit vor Grenzen gestellt, die sich nicht einfach umschiffen ließen. Um diese Grenzen zu sprengen, war Grundlagenarbeit notwendig, die in den neuen "Caspian" getauften Hypervisor mündete. Damit ist es erstmalig in AWS ermöglicht, virtuellen Maschinen den maximal nutzbaren Hauptspeicher vorzugaukeln, auch wenn sie diesen bislang mangels Bedarf noch nicht ausreizen. Entsteht diese Anforderung im laufenden Betrieb, gewährt Caspian den angeforderten RAM nach und nach. Sollte auf dem physischen Serverknoten nicht mehr genügend RAM vorhanden sein, ermöglicht der neue Hypervisor nun auch die automatische transparente Migration der Datenbank-VM im Hintergrund auf einen anderen Server mit mehr Ressourcen.
Der eigentliche Clou – die Verteilung der Datenbank-Schreibarbeit auf mehrere Server – ist mit großen Herausforderungen verbunden, wie DeSantis in seiner Keynote darlegte. Um die strengen Konsistenzeigenschaften der Datenbank zu gewährleisten, ist der Datenbankserver auf die Logdateien angewiesen. Diese erfordern exakte Zeitstempel, was im Fall von mehreren Servern ein großes Problem darstellt. Denn die zeitliche Auflösung der herkömmlichen Protokolle zur Zeitsynchronisation wie NTP oder PTP ist einfach nicht ausreichend, um einen adäquaten Schreibdurchsatz zu gewährleisten und gleichzeitig die Konsistenz sicherzustellen.
Die Lösung des Herstellers besteht nun darin, mit einer neuen Version des "Amazon Time Sync Service" eine Zeitsynchronisation im Mikrosekundenbereich abbilden zu können. Hierfür stattet AWS seine Rechenzentren mit einer speziell hierfür entwickelten Zeitserver-Hardware aus, die AWS-Instanzen über ein dediziertes Netzwerk mit einer viel feiner auflösenden Zeitsynchronisation versorgt. Dadurch entfällt die bisherige Limitierung der Transaktionen und Millionen von Schreibtransaktionen pro Sekunde sind nun möglich. Nicht nur der relationale Datenbankdienst soll von dieser Grundlagenarbeit profitieren, auch den Caching-Dienst Amazon ElastiCache soll dies beschleunigen. Zudem will der Anbieter sein Cloud Data Warehouse Amazon Redshift dank KI-Techniken automatisiert in Abhängigkeit von eingehenden Anfragen und deren Mustern skalieren, um so Administratoren zu entlasten.
S3 leistungsfähiger und effizienter
Am zweiten Konferenztag enthüllte dann Adam Selipsky, CEO bei Amazon Web Services, die großen Neuerungen der Messe. Zunächst widmete er sich "Amazon S3 Express One Zone", einer neuen Konfigurationsvariante vom Objektspeicher S3. Wählen IT-Verantwortliche diese Variante aus, steigt durch eine Colocation des Speicherdiensts in der gleichen Verfügbarkeitszone wie die darauf zugreifenden virtuellen Maschinen die Performanz des Objektspeichers bei der Zugriffsgeschwindigkeit um bis zu Faktor 10.
In bestimmten Szenarien sollen IT-Organisationen durch den schnelleren Speicherzugriff Kosten einsparen können, wenn dadurch die Rechenaufträge zügiger zum Ende kommen und virtuelle Maschinen, insbesondere Spot- und On-demand-Instanzen, sich dadurch beschleunigt wieder herunterfahren lassen. Ebenfalls soll der Speicherdienst automatisch hoch- und herunterskalieren und die Verwaltung mehrerer Speichersysteme für latenz- und leistungskritische Aufgaben, wie sie in der Finanzbranche, bei der Betrugserkennung oder dem Training von Machine-Learning-Modellen anfallen, nicht mehr notwendig sein. Allerdings müssen Administratoren, die die neue S3-Variante nutzen wollen, einige technische Änderungen beachten. Für Amazon S3 Express One Zone ist nun ein neuer Bucket-Typ notwendig, weitere Details wie die Authentifizierung und die Namenskonvention unterscheiden sich ebenfalls vom bislang gewohnten Standard.
Neue KI-Chips und Q
Seitdem Amazon Web Services seine eigenen Prozessoren und Machine-Learning-Chips herstellt, darf auch die Vorstellung neuer Chip-Generationen auf der Hausmesse nicht fehlen. Auf der diesjährigen re:Invent war dies die neueste Generation der auf der Arm-Architektur basierten Graviton-Baureihe. Der Graviton4 soll 30 Prozent bessere Performance und 75 Prozent höhere Speicherbandbreite als die aktuellen Graviton3-Prozessoren bieten. Neu sind auch die AWS-Trainium2-Chips, mit denen AWS die langen Laufzeiten des Trainings von generativen KI-Modellen stark reduzieren will, da der Prozessor dies bis zu viermal schneller als sein Vorgänger durchführen soll. Zudem lassen sich nunmehr bis zu 100.000 dieser Chips in "EC2 UltraClustern" kombinieren, um das Training von großen Sprach- und anderen Foundation-Modellen in Bruchteilen der bisher benötigten Zeit zu absolvieren, bei gleichzeitig verdoppelter Energieeffizienz.
Äußerst vielversprechend erschien die Ankündigung des "Q" getauften AI-Chatdiensts. Dem weltweit bislang dominierenden, in der konkurrierenden Azure-Cloud gehosteten ChatGPT-Dienst, will AWS nun einen generativen AI-Assistenten entgegenstellen. Dieser soll auf sichere Art und Weise direkt die Daten der von Unternehmen genutzten Systeme wie Microsoft Teams, SharePoint und über 40 weitverbreiteter Enterprise-Systeme im Zugriff haben. Sobald Kinderkrankheiten ausgestanden sind – kurz nach der Ankündigung von Q wurden erste Probleme bekannt – erscheint die Nutzung eine hohe Effizienzsteigerung zu versprechen.
Die Arbeitswelt der Zukunft soll die KI massiv verändern. Entsprechend äußerte sich Swami Sivasubramanian, Vice President für Data und AI, auf der Konferenz: "Bei der generativen KI stehen wir momentan an einem Kipppunkt. Sie hat das Potenzial, die Kunden- und Arbeitserfahrung in vielen Branchen dramatisch zu verändern". An IT-Organisationen, die ihre eigenen KI-Modelle bei AWS betreiben wollen, wendet sich der neue Dienst "Amazon Bedrock". Dieses "Grundgestein" ermöglicht es aktuell, die von AWS verwalteteten Foundation-Modelle über eine einheitliche API anzusprechen. Allerdings fehlt das weltweit am meisten genutzte GPT-4.
Neues bei VMware Cloud on AWS
Neben Amazon Web Services selbst nutzen mehr als 400 Aussteller die Konferenz, um ihre Neuerungen rund um die AWS-Cloud vorzustellen. Wir waren dort unterwegs und haben uns bei VMware umgehört. Der Anbieter stellte auf der re:Invent eine neue Version seines hybriden Clouddiensts "VMware Cloud on AWS" vor, der nun auf den "m7i.metal-24xl"-Instanzen bei AWS laufen kann. Die Basis dafür bilden Intels Sapphire-Rapids-CPUs mit 48 Kernen, die im Host auf 384 GByte RAM zugreifen können. Diese CPU bietet die "Intel Advanced Matrix Extensions" (AMX), die Matrix-Multiplikationen für Deep-Learning-Anwendungen beschleunigen.
Fazit
AWS setzt bei den klassischen Diensten auf mehr Performance und streckt sich technologisch dabei insbesondere für die neue Variante von Aurora. Hier hat der Anbieter umfangreiche Grundlagenarbeit betrieben, die in einen neuen Hypervisor und eine einzigartige Zeitsynchronisation mündete. Dies soll neben klassischen Rechenaufgaben auch das Training von KIs unterstützen, wozu AWS parallel eine neue Generation spezieller Chips vorstellte. Doch in Sachen generativer KI startet das Unternehmen erst jetzt durch und es bleibt abzuwarten, ob Q sich mit dem Platzhirsch GPT-4 wird messen können. Die nächste re:Invent findet in der Woche vom 2. Dezember 2024 in den USA statt, in Deutschland steht als kostenfreie Konferenz der AWS Summit Berlin am 15. und 16. Mai 2024 in den Startblöcken.