ADMIN

2025

01

2024-12-30T12:00:00

Automatisierung

PRAXIS

032

Storage

Künstliche Intelligenz

Passender Storage für KI

Langzeitgedächtnis

von Ariane Rüdiger

Veröffentlicht in Ausgabe 01/2025 - PRAXIS

KI boomt, doch irgendwo müssen die ganzen Daten hin, mit denendie Algorithmen arbeiten. Storage-Anbieter reagieren inzwischenund entwickeln Speichersysteme, die speziell auf KI-Anforderungenausgelegt sind. Ein wichtiger Maßstab ist dabei die Zertifizierungdurch Nvidia. Wir werfen einen Blick auf die Speichertrendsin Sachen künstliche Intelligenz und die passendenStorage-Systeme am Markt.

Viele Anwender wollen trotz vielfältiger Cloudaktivitäten gerade ihre kostbaren Daten und deren Verarbeitung nicht vollständig in die Wolke verlagern. Deshalb heißt derzeit das wichtigste Infrastrukturmodell "Hybrid Cloud" – und das wird wohl eine ganze Weile so bleiben. Der Storage-Teil der KI-Infrastruktur dürfte im Rahmen dieses Modells vorläufig häufig innerhalb des Einflussbereichs des Unternehmens bleiben, ob ausgelagert mittels Colocation oder tatsächlich in den eigenen vier Wänden.
Die wichtige Rolle von Nvidia kann in diesen Zusammenhang kaum überbetont werden. Die KI-Verarbeitung nutzt hardwareseitig meist GPUs des Herstellers, im Hintergrund wirken DPUs (Data Processing Units) ebenfalls von Nvidia. Dazu kommt inzwischen eine eigene Welt an vorkonfigurierten Softwarekomponenten und Referenzarchitekturen. An diesem Portfolio führt bei der Bestimmung dessen, was KI-Storage können muss, derzeit kaum ein Weg vorbei.
Nvidias DGX-Pods: Maß der Dinge
Wichtig sind hier vor allem der Nvidia DGX BasePOD [1] und der Nvidia DGX SuperPOD als Bezugspunkte. Beides sind Varianten der Nvidia-DGX-Plattform, einer Referenzarchitektur für KI-Plattformen. Sie beschreibt, wie Computing, Netzwerkswitches, Software und Speicher beschaffen und zusammengesetzt sein müssen, um die aus Nvidia-Sicht optimale KI-Umgebung zu bilden.
Viele Anwender wollen trotz vielfältiger Cloudaktivitäten gerade ihre kostbaren Daten und deren Verarbeitung nicht vollständig in die Wolke verlagern. Deshalb heißt derzeit das wichtigste Infrastrukturmodell "Hybrid Cloud" – und das wird wohl eine ganze Weile so bleiben. Der Storage-Teil der KI-Infrastruktur dürfte im Rahmen dieses Modells vorläufig häufig innerhalb des Einflussbereichs des Unternehmens bleiben, ob ausgelagert mittels Colocation oder tatsächlich in den eigenen vier Wänden.
Die wichtige Rolle von Nvidia kann in diesen Zusammenhang kaum überbetont werden. Die KI-Verarbeitung nutzt hardwareseitig meist GPUs des Herstellers, im Hintergrund wirken DPUs (Data Processing Units) ebenfalls von Nvidia. Dazu kommt inzwischen eine eigene Welt an vorkonfigurierten Softwarekomponenten und Referenzarchitekturen. An diesem Portfolio führt bei der Bestimmung dessen, was KI-Storage können muss, derzeit kaum ein Weg vorbei.
Nvidias DGX-Pods: Maß der Dinge
Wichtig sind hier vor allem der Nvidia DGX BasePOD [1] und der Nvidia DGX SuperPOD als Bezugspunkte. Beides sind Varianten der Nvidia-DGX-Plattform, einer Referenzarchitektur für KI-Plattformen. Sie beschreibt, wie Computing, Netzwerkswitches, Software und Speicher beschaffen und zusammengesetzt sein müssen, um die aus Nvidia-Sicht optimale KI-Umgebung zu bilden.
Dabei stammen DGX-Prozessoren, Software, Netzadapter und -switches in der Regel direkt von Nvidia. Dazu kommt das Betriebssystem "Base Command". Den Storage dürfen generell Partner beisteuern. Auch der Container-Orchestrierer Kubernetes und Slurm, ein Open-Source-Workloadmanager, kommen in DGX-Architekturen von auswärts. Auf den oberen Schichten liefert Nvidia mit NGC eine Softwaresuite für Entwickler und Data Scientists. Auch Nvidia AI Enterprise, eine komplette Plattform für AI, gehört zum Stack der Pods.
Die Systeme der Storage-Lieferanten werden bei der Zertifizierung daraufhin untersucht, ob sie nahtlos mit Nvidias Hard- und Software zusammenspielen. Insbesondere gilt das für die Kooperation mit Base Command, das auch Beschleunigungsfunktionen für den Storage im Rahmen von DGX-B200/H100/H200-Infrastrukturen mitbringt. Exemplarisch sei eine Hardwarevariante genauer beschrieben, mit der sich DGX-BasePODs aufbauen lassen: B200-Systeme enthalten acht Nvidia-Blackwell-GPUs, 1, 4 TByte GPU-Memory, leisten 72 PFlops beim Training und 144 bei der Inferenz (dem Schlussfolgern einer KI aus neuen Daten). Die Vernetzung im System erfolgt über Nvidia-Networking mit bis zu 400 GBit/s Infiniband oder Ethernet und zwei Intel-Xeon-Scalable-Prozessoren der fünften Generation.
Für die Storage-Anbindung wird eine Ethernet-Fabric mitgeliefert, optional geht es auch mit Infiniband. Bei den BasePOD-Varianten mit H200 und H100 (Hopper-GPUs) als Hardwarebasis wird die doppelt ausgelegte Infiniband-Fabric zur Anbindung des Storage mitgeliefert, die Prozessoren und die Gesamtkonfiguration sind aber schwächer. Auch Netzwerkswitches (QM9700 für den Betrieb und SN-Serie fürs Management) gehören zum System.
Ein Pod besteht aus mehreren DGX-Einheiten, redundant und breitbandig verknüpft über zwei QM-Switches. Der Storage ist über SN-4600-Switches ebenfalls redundant ins System eingebunden. Die Managementpfade laufen parallel über zwei SN2201-Switches. Der Nvidia DGX SuperPOD ist ähnlich aufgebaut, aber größer und leistungsstärker. Nvidia sieht diese Referenzarchitektur als kompletten Stack für HPC-Workloads. Und auch hier muss der Storage natürlich passen.
Anforderungen an den Storage
Was nun müssen entsprechende Storage-Systeme können, um sich in solche Umgebungen einzupassen? Vor allem Daten in ausreichender Menge und Geschwindigkeit an die DGX-Systeme respektive die darin werkelnden GPUs liefern, damit diese niemals stillstehen. Außerdem müssen sie das Out-of-Band-Management unterstützen.
Weiter sollten sie, da sich Datenmengen bei AI schnell verändern können, flexibel skalierbar sein und offene Schnittstellen zu Nvidias Betriebssystem Base Command besitzen, um von dessen Storage-Beschleunigungsfeatures zu profitieren. Sie sollten aber gleichzeitig den Daten die nötige Zuverlässigkeit und Sicherheit bieten, die im Umgang mit solchen Assets erforderlich ist. Das bedeutet: Funktionen wie Backup oder Verschlüsselung sind unverzichtbar.
Es folgt ein kurzer Einblick in Systeme, die die Anforderungen der Nvidia-Zertifizierung bislang erfüllt haben. Darunter sind die wichtigsten lange etablierten Storage-Hersteller, aber auch einige relativ neue Anbieter. Zunächst die Großen der Branche: Dell, HPE, IBM und Hitachi.
Bild 1: Die Integrationsschichten des DGX BasePOD mit dem zertifizierten Storage unten rechts. Quelle: Nvidia
Dell Isilon F800
Dell hat sein Speichersystem Isilon F800 [2] im dazugehörigen Chassis für DGX A100, basierend auf der H100-GPU, zertifiziert. Die sechste Generation der Isilon-Hardware, die die Zertifizierung durchlaufen hat, nutzt das Betriebssystem OneFS. In jedem F800-Chassis stecken 60 SSDs, daraus ergibt sich eine maximale Raw-Kapazität von 924 TByte pro Chassis. Das Filesystem OneFS unterstützt Cluster bis 252 Knoten in 63 Chassis als Cluster-Maximalgröße. Die Isilon-Maschine spricht alle wichtigen Protokolle. Das System skaliert einfach durch Hinzufügen neuer F-800-Knoten.
Das Softwaretool Dell EMC Powerscale Smartpools sorgt für ein intelligentes und mehrfaches Tiering. Caching-Mechanismen aggregieren dabei den Cache aller Knoten zu einem global zugänglichen Memory-Pool. Ein verteiltes Lock-Management wiederum kann die Daten auf allen Clusterknoten vor unerlaubten Zugriffen schützen.
In einem Chassis stecken vier Dell-EMC-Isilon-F800-Knoten. Sie kommunizieren über acht redundante 40-GbE-NFS-Verbindungen mit zwei Nvidia-Mellanox-SN3700V-Switches. Diese wiederum sind über 200-GbE-ISL-Links untereinander verknüpft. Die Switches schicken Daten über redundantes 100 GbE zu jedem DGX-Chassis aus dem Cluster. Die DGX-A100-Knoten sind über 200-GBit/s-HDR-Infiniband und zwei genauso untereinander vernetzte Nvidia-Mellanox-QM8700-Infiniband-Switches miteinander verbunden. Außerdem gehört Nvidias Container-Registry NGC zum System, die auf die DGX A100 zugeschnittene AI/ML-Software enthält.
HPE Greenlake for File Storage
HPE schickt sein cloudmäßig betriebenes On-Premises-Angebot "Greenlake for File Storage" [3] ins Rennen, das im Juni des laufenden Jahres die Zertifizierung erhielt. Das System gehört zum gemeinsam mit dem KI-Spezialisten entwickelten Nvidia-AI-Computing-Portfolio von HPE. Von Nvidia stammen KI-Verarbeitung, Netzwerk und Software. HPE steuert KI-Storage, Compute und das Greenlake-Cloud-Computing für die Private Cloud bei. Alles zusammen bildet dann HPE Private Cloud AI. Zum Rechnen kommen Proliant-Server mit integrierten GPUs und Bluefield-3-DPUs zum Einsatz. Zur Nvidia-Software gehören unter anderem Inferenz-Mikroservices von Nvidia (Nvidia NIM).
Basis für HPEs Storage ist die vollständig disaggregierte Alletra Storage MP. Sie besteht aus einem Compute-Gehäuse (CBox), einem Storage-Gehäuse (DBOX/ JBOF) und nutzt als Backend-Verbindung NVMe over Ethernet Fabric. Die Alletra ist in einer Standard- und einer hohen Integrationsdichte lieferbar. Die Standardvariante der CBox passt auf zwei Höheneinheiten in Standardtiefe und fasst zwei Knoten mit je einer AMD-32C-CPU mit 256 GByte RAM, die DBox misst ebenfalls zwei Höheneinheiten. Sie hat eine PCIe-4-Karte mit zwei 100-GBit/s-Ports, die vier Ports pro DBox ermöglicht. Die Rohkapazitäten reichen je nach Plattenkapazität von 154 bis 550 TByte. Ein 32-Port-Aruba-Switch für 100 GbE bildet die NVMe-oF-Backendanbindung.
Bei der hochintegrierten Variante stecken vier Compute-Knoten in einem 2U-Gehäuse, dazu kommen zwei Intel-16C-Prozessoren. Das Storage-Gehäuse ist nur eine Höheneinheit groß, der Dual-Port-PCIe4-100G-Adapter ermöglicht acht Ports per Box. Die Rohkapazitäten reichen von 338 TByte bis 1, 3 PByte. Die NVMe-oF-Backendverbindung realisiert ein HPE Storage M SV4600cM Switch.
Interessant ist dieses System insbesondere für Unternehmen, die ihre IT ohnehin über das HPE-Greenlake-Portfolio realisieren oder in Zukunft realisieren wollen. Allerdings gibt es inzwischen eine Reihe von Herstellern, die On-Premises-Betrieb mit cloudähnlichem Management und Abrechnung verbinden.
IBM Storage Scale 3500
IBMs Ansatz basiert auf der hochskalierbaren Storage Scale 3500 [4]. Deren Grundbausteine sind zwei Höheneinheiten große All-NVMe-Storage-Core Storage Scale 3500, von denen sich mehrere zu einem größeren System verbinden lassen. Ein StorageScale-3500-Core überträgt bis zu 125 GBit/s und schafft bis zu 1, 3 Millionen IOPS. Außerdem lassen sich bestehende Storage-Systeme und Clouddienste in eine Storage-Scale-Infrastuktur integrieren. Insgesamt skaliert Storage Scale bis auf Tausende von Knoten.
IBM wirbt damit, die schnellste Nvidia-DGX-BasePOD-Plattform mithilfe von StorageScale aufbauen zu können und sich für alle Typen von DGX-Plattformen zu eignen. Weiter betont der Hersteller die Vielzahl an Sicherheitsmechanismen, intelligentes Tiering und regelgesteuertes Management, den einfachen Betrieb über eine grafische Schnittstelle und die Möglichkeit, auch von Infrastrukturen gemäß Red Hat Open Shift aus auf den Storage zugreifen zu können.
Die Plattform bietet vier grundlegende Datenservices an: Zugriffs-, Resilienz-, Caching- oder Core- und Datenmanagementservices. Auch die in der Cloud befindlichen Watsonx-Mechanismen aus der generativen KI, etwa LLMs, werden für Storage-Scale-Anwender innerhalb von DGX-Pods zugänglich. Besonders reizvoll dürfte die Lösung auch hier für Unternehmen sein, die bereits mit IBM und insbesondere mit Komponenten der Watsonx-Welt arbeiten.
Hitachi Vantara und iQ
Hitachi bindet seinen Vantara-Objektspeicher [5] sowie die Datenplattform Hitachi iQ in das zertifizierte System ein. Die Kernkomponente von Hitachi IQ ist Hitachi Content Software for File. Dieses hochskalierbare parallele Dateisystem wurde für Hitachi Vantara entwickelt und unterstützt maximal 10 Exabyte, die beliebig auch in der Multicloud verteilt sein können. Die Software kommt gut mit gemischten Workloads zurecht, die viele Metadaten besitzen. Die Einstiegskapazität liegt bei 207 TByte. Daten werden hard- und softwareverschlüsselt.
Das Filesystem schafft 6, 4 Milliarden Dateien oder Verzeichnisse, 14 Exabyte im globalen Namensraum und 6, 4 Millionen Files in einem Verzeichnis. Die Dateigröße kann 4 PByte betragen, wobei das System jedes wichtige Format unterstützt. Die Storage-Knoten, auf denen Hitachi Content Software for File läuft, arbeiten mit einem AMD EPYC 9534 mit 64 Kernen unter Rocky Linux 8.8 als Server. Er kann acht Storage-Knoten mit je 15 SSD-Drives zu 3, 84 TByte steuern. Weiter sind pro Knoten 768 GByte in Form von zwölf 64-GByte-DIMMs vorhanden.
NetApp AFF
NetApp bringt seine AFF-Systeme in den NetApp AIPod [6] ein und kombiniert sie unter anderem mit Nvidias DGX-Architekturen. Für große Installationen eignet sich insbesondere das System NetApp AFF 900. Aber alle übrige AFF-Hardware passt ebenfalls mit Nvidia DGX zusammen. AFF 900 arbeitet wie alle NetApp-Systeme mit ONTAP, NetApps bewährter Datenmanagementsoftware. AFF A900 kommt mit Aufgaben wie Deep Learning und KI, aber auch mit klassischen und neuen Datenbanken zurecht. Pro hochverfügbarem Gerätepaar schafft die Hardware Latenzen unter 100 Mikrosekunden und bis zu 2, 4 Millionen IOPS. Multiprotokollfähigkeiten gehören selbstverständlich dazu.
Die Systemgesundheit überwachen der Active IQ Digital Advisor, eine KI-Software und Cloud Insights. Ontap führt automatische Firmware-Updates aller Systemkomponenten durch. Nvidia GPU Direct Storage (GDS) wird von ONTAP mittels NFS over RDMA, parallelem NFS und NFS-Session-Trunking unterstützt. Datenschutzmechanismen und Verschlüsselung auf Volume-Ebene sind integriert, genau wie Multifaktor-Authentifizierung und Klientenfähigkeit.
Die Storage-Systeme werden mit jeweils vier 100-GbE-Ports von jedem Controller aus angebunden. Zwei dienen dabei jeweils dem Datentransport und zwei dem Management. Der Datenzugriff wird über NFS gewährleistet. Auch hier dient eine SVM dem Zugriff auf KI-Workloads und eine zweite dem Management.
Ein Storage-Cluster darf maximal zwölf hochverfügbare Storage-Knoten besitzen. Daraus ergeben sich ein Namensraum von mehr als 40 PByte und bis zu 300 GByte/s Durchsatz. Kleinere Systeme leisten entsprechend weniger. Dabei kann ein AFF-900-Knotenpaar laut Validierung maximal 32 GPUs unterstützen. Beim kleinsten Modell, AFF C250, sind es nur vier GPUs.
DDN A31und AI400X
DDN gehört zu den Storage-Spezialisten, die sich seit jeher auf Höchstleistungssysteme spezialisiert haben. Zu finden sind DDN-Lösungen besonders häufig in Universitäten und Forschungsinstituten. Zertifiziert für Nvidia DGX SuperPOD ist die Variante A3I, die gemeinsam mit Nvidia entwickelt wurde.
DDN nutzt eine geteilte Parallelarchitektur mit vielen parallelen Datenpfaden von den Laufwerken bis zu den containerisierten Applikationen auf den GPUs des DGX-Systems. Dabei hilft ein eigenes Clientprotokoll. Wegen der hohen Parallelität kann DDN die GPUs sehr gut auslasten. Das beschleunigt die Applikationen. Außerdem bietet die Parallelarchitektur der Speichersysteme Redundanz und automatisches Failover bei Ausfällen.
DDN ist auf NUMA(Non-Uniform Memory Access)-Architekturen zugeschnitten, bei denen jeder Prozessor einen eigenen lokalen Arbeitsspeicher hat. Andere Prozessoren können über einen gemeinsamen Adressraum auf entsprechende Daten zugreifen. Warteschlangen werden so gesteuert, dass die Ein-/Ausgabeaktivitäten optimal über das DGX-System verteilt sind. Dazu kommen Optimierungen im Umgang mit dem Cache.
Die DDN AI400X ist ein einsatzfertiges Gerät, das in DGX-Umgebungen arbeitet. Einer dieser Speicherknoten schafft 48 GByte/s Durchsatz und mehr als drei Millionen IOPS über HDR100 oder 100 GbE. Varianten mit ausschließlich SSDs und gemischte Konfigurationen sind möglich. Zertifiziert sind Konfigurationen mit einem, zwei, vier und acht Speicherknoten.
Laut DDN skalieren Schreib- und Leseleistung bei der Zusammenarbeit mit einem DGX-System sogar besser als linear. Verglichen mit der Datenübertragung über NFS/TCP respektive NFS/RoCE ist ein Zwei-Knoten-Cluster, der an einer DGX gemountet wird, um ein Vielfaches schneller beziehungsweise durchsatzstärker.
Gleichzeitig schont DDNs Clientsoftware die CPU der DGX-Systeme. Dem Hersteller zufolge muss sie für die gleiche Ein-/Ausgabeleistung nur ein Viertel der Belastung tragen, die bei Konkurrenzprodukten anfällt. Das bedeutet, dass die Verarbeitungseinheiten jederzeit an ihren Tasks arbeiten können, statt zeitweise lediglich Daten vom oder zum Storage-System zu pumpen. Auch wenn mehr GPUs eingesetzt werden, steigt die Leistung linear.
Bild 2: Hitachis und Nvidias Anteile an der DGX-BasePod-zertifizierten Hitachi iQ Integrated Architecture. Quelle: Hitachi
Pure Storage
Nun zu den jüngeren Playern: Pure Storage gibt es seit 2009. Das Unternehmen, bekannt für seine Flash-only-Systeme, arbeitet schon länger eng mit Nvidia zusammen. Die auf Nvidia DGX BasePOD basierende AIRI (AI-ready Infrastructure) [8] wurde zusammen mit dem GPU-Spezialisten entwickelt. Als Storage-Hardware kommen darin die FlashBase//S-Speicher vor. Außerdem steuert Pure Storage noch seine Betriebs- und Datenmanagementsoftware Purity/FB bei, weiter die Portworx Kubernetes Data Platform und das Pure RapidFile Toolkit. Das Werkzeug managt Files effizient mittels Linux-Befehlszeilen.
Die Scale-out-Plattform FlashBlade//S speichert Dateien und Objekte, und dies ausschließlich auf QLC-Speicher. Dessen mögliche Fehler bügeln elaborierte Softwaremechanismen aus, sodass komplexe Cache-Strukturen entfallen. Die Managementsoftware kommuniziert direkt mit den Flash-Modulen, die bei SSDs übliche Software-Zwischenschicht entfällt.
Jedes DirectFlash-Modul besitzt eine kleine Partition NVRAM, die mit dem Wachstum der Plattform skaliert. Pure reklamiert, für jedes Flash-Modul 20 Prozent mehr Kapazität aus NAND-Speicher herauszuholen als SSDs. Das Betriebssystem kann mit Metadaten flexibler Länge umgehen. Kompression, globales Erasure-Coding, Verschlüsselung und sichere Replikation sind weitere Eigenschaften.
Reizvoll für Firmen dürfte das Evergreen-Abo sein, mit dem Kunden ohne Tausch des restlichen Systems alle drei Jahre auf neue Blades umsteigen dürfen. Sie können dabei die alten Geräte gegen Geld zurückgeben und neue, dichtere Flash-Module ins System einbauen, sobald es welche gibt. Anwender können mit sieben Blades zu je vier Direct-Flash-Modulen und damit mit maximal 300 TByte pro Blade starten. Die maximale Uplink-Kapazität beträgt 16-mal 200 GbE.
Weka Data Platform
Seit 2013 ist Weka auf dem Markt. Der Anbieter wollte eigentlich ein Storage-System fürs Cloudzeitalter bauen und sieht nun als zweites großes Anwendungsfeld KI. Die "Weka Data Platform" [9] ist inzwischen von Nvidia für den DGX-BasePOD zertifiziert worden. Eine Eigenheit der Plattform ist eine Semantikschicht aus SCM-(Storage Class Memory)-Laufwerken, die die Kommunikation innerhalb des CNode-Clusters vereinfachen. SCM liegt in Geschwindigkeit und Preis zwischen Flash-NAND und DDR-SDRAM. Zertifiziert wurde von Weka Version 3.x mit dem Betriebssystem CentOS.
Als Hardwareplattform dienen kommerziell verfügbare NVMe-Server mit CPU, NVMe-Storage und bandbreitenstarker Vernetzung, wobei mindestens acht Serverknoten als Startkonfiguration erforderlich sind.
Kern des Systems ist das POSIX-kompatible, parallele Filesystem WekaFS. Es arbeitet mit NVMe-Flash, Objektspeicher und sehr schnellen Verbindungen ab 100GbE oder Infiniband in einer NVMe-oF-Architektur. Mit mehr Servern skaliert das System linear, wobei es alle wichtigen Protokolle für den Dateizugriff unterstützt. Es besitzt zudem einen Hadoop- und einen Spark-Konnektor. Auf diese Weise werden andere HDFS überflüssig. Jeder beliebige S3-Objektspeicher lässt sich in den Namensraum einbinden.
Die Datenversionierung findet über Point-in-Time-Snapshots des gesamten Namensraums statt, die als eigene Instanz präsentiert wird. Dadurch ist auch Datenportabilität zwischen Cloud und On-Premises gegeben. Dank eines Plug-ins finden auch Container Unterstützung. Ein Minimalsystem umfasst sechs Weka-Server und zwei Nvidia-DGX-A-100-Systeme. Als Verbindung empfiehlt Weka 200-GBit/s-Infiniband. Besonders wer bereits in der Cloud mit Weka positive Erfahrungen sammeln konnte, dürfte einen Vorteil darin sehen, den Hersteller auch in die KI-Infrastruktur einzubinden.
Bild 3: Referenzdesign mit WekaFS und HPEProliant als Storage-Server. Quelle: Weka
Vast Data Platform
Seit 2019 widmet sich Vast Data dem Thema unstrukturierte Daten. Entstanden ist die "Vast Data Platform" [10], die von Anfang an auch die Datenanalyse von großen Datenmengen als Zielmarkt im Auge hatte. Die Hardwarearchitektur der Vast-Plattform umfasst drei Komponenten:
- CNodes sind ein Cluster aus x86-Maschinen, auf denen containerisierte Software für das Datenmanagement läuft. Die Daten werden auf den CNodes nicht gespeichert. Vier CNodes passen in ein 2U-Gehäuse.
- DBoxes enthalten hochdichten und -verfügbaren NVMe-Speicher. Hier werden File- und Objektdaten sowie dazugehörige Metadaten in einem Namensraum gespeichert. Eine DBox-Variante, Ceres, verlagert grundlegende Datenverarbeitungsfunktionen auf eine integrierte BlueField-DPUs, um die Netzwerkgeschwindigkeit zu steigern.
- NVMe-Fabric-Switches für RDMA (Remote Direct Memory Access) verbinden CNodes mit jeder SSD auf einem der geclusterten DBoxes.
Dazu kommen Softwarekomponenten. Der globale Namensraum "Vast Dataspace" bietet einen Site-übergreifenden Datenzugriff. Mittels Vast DataStore lässt sich beispielsweise der Multiprotokoll-Datenzugriff realisieren. Schließlich liefert Vast das Hochleistungs-Data-Warehouse Vast DataBase.
An der Tatsache, dass Vast in seine Geräte einen Prozessor von Nvidia integriert, lässt sich erkennen, wie eng die Kooperation ist. Das ist zweifellos ein Vorteil. Allerdings ist Vast noch relativ jung, und das langfristige Schicksal junger Firmen im schnelllebigen IT-Markt ist ungewiss. Deshalb dürften sich vor allem diejenigen für eine DGX-Infrastruktur mit Vast entscheiden, die nicht allzu fest an einen der großen Storage-Hersteller gebunden sind oder sich schrittweise aus einer solchen Bindung befreien möchten.
Cisco FlashStack for AI
Cisco ist ein zweiter Anbieter, der zwar über Prozessoren, nicht aber über eigenen Storage verfügt. Deshalb hat das Unternehmen eine eigene Referenzarchitektur namens "Cisco FlashStack for AI" [11] entwickelt. Dieser Stack stützt sich auf Red Hat OpenShift AI. Server können aus der UCS-X- und UCS-C-Serie stammen. Weiter werden Cisco-Nexus-9300-GX-Switches eingesetzt. Auch Cisco zertifiziert wegen des eigenen Storage-Mangels Speichersysteme für FlashStack for AI, etwa Erzeugnisse von Pure Storage.
Fazit
Inzwischen haben sich die wichtigsten Anbieter von Storage-Systemen für KI-Referenzdesigns zertifiziert. Richtig dimensioniert, sollten sie auch die versprochene Leistung bringen. Das bedeutet, Anwender können wohl meist im Rahmen ihrer bewährten Storage-Partnerschaften bleiben, wenn sie forciert in KI einsteigen möchten. Die Preise für derartig leistungsfähige Speichersysteme dürften sich im niedrigen sechsstelligen Bereich bewegen. Gleichzeitig könnte eine KI-Umgebung in Gestalt eines Nvidia DGX BasePOD mit einem anderen als dem bisher gewohnten Storage auch durchaus die Chance eröffnen, in Sachen Speicher einmal etwas Neues auszuprobieren – und sich damit möglicherweise langsam, aber sicher aus den Klauen eines allzu anhänglichen Lieferanten zu befreien.
(dr)
Link-Codes
[9] Weka Data Platform: https://www.weka.io/