Wer als Admin eine IT-Infrastruktur verwaltet, sieht sich in unterschiedlichen Einsatzszenarien mit vielfältigen Optionen konfrontiert. Das betrifft besonders den Bereich Storage. Der Einkaufsführer vergleicht gängige Speicherformen wie DAS, NAS und SAN sowie massiv skalierbaren Objektspeicher anhand von fünf Kategorien miteinander.
Speicher ist das Rückgrat jedweder IT-Infrastruktur. Die Möglichkeiten, aus denen der Admin hier schöpfen kann, sind praktisch unbegrenzt. Was schnell für Frust sorgt: Wer als Admin ein bestehendes Setup erneuern oder ein neues planen will, steht oft vor der Frage, welche der vielen Optionen am Markt die sinnvollste Variante ist.
Den Wald vor lauter Bäumen nicht mehr zu sehen, passiert hier schnell: Lokaler Speicher in Form einzelner Festplatten oder Flash-Laufwerke, replizierte NAS- und SAN-Speicher, skalierbare Storage-Riesen wie Ceph, Spezialanwendungen und viele Varianten machen den Speichermarkt extrem unübersichtlich. Weil Storage zudem eine zentrale Komponente in beinahe jeder IT-Umgebung ist, lässt er sich zu einem späteren Zeitpunkt nicht ohne weiteres durch eine andere Variante ersetzen. Es prüfe also, wer sich lange bindet, damit kein böses Erwachen droht.
Anhand von fünf Kategorien nehmen wir im Folgenden die gängigsten Storage-Konzepte unter die Lupe und erklären, welches Modell für welches Betriebskonzept geeignet ist. Zur Anwendung kommen insgesamt fünf Bewertungskategorien:
Speicher ist das Rückgrat jedweder IT-Infrastruktur. Die Möglichkeiten, aus denen der Admin hier schöpfen kann, sind praktisch unbegrenzt. Was schnell für Frust sorgt: Wer als Admin ein bestehendes Setup erneuern oder ein neues planen will, steht oft vor der Frage, welche der vielen Optionen am Markt die sinnvollste Variante ist.
Den Wald vor lauter Bäumen nicht mehr zu sehen, passiert hier schnell: Lokaler Speicher in Form einzelner Festplatten oder Flash-Laufwerke, replizierte NAS- und SAN-Speicher, skalierbare Storage-Riesen wie Ceph, Spezialanwendungen und viele Varianten machen den Speichermarkt extrem unübersichtlich. Weil Storage zudem eine zentrale Komponente in beinahe jeder IT-Umgebung ist, lässt er sich zu einem späteren Zeitpunkt nicht ohne weiteres durch eine andere Variante ersetzen. Es prüfe also, wer sich lange bindet, damit kein böses Erwachen droht.
Anhand von fünf Kategorien nehmen wir im Folgenden die gängigsten Storage-Konzepte unter die Lupe und erklären, welches Modell für welches Betriebskonzept geeignet ist. Zur Anwendung kommen insgesamt fünf Bewertungskategorien:
1. Datensicherheit: Noch immer gehören Speichergeräte zu den anfälligsten Teilen im IT-Zirkus. Wie gut ist der Admin gegen Datenverlust geschützt, falls ein Bauteil den Geist aufgibt?
2. Installation: Die schönste Speicherlösung nutzt nichts, wenn sie so komplex ist, dass der Admin sie nicht sinnvoll an den Start bringt. Welche Möglichkeiten bieten die einzelnen Ansätze für eine schnelle Inbetriebnahme wieviel Arbeit im RZ fällt an und wo lauern Fallstricke?
3. Komplexität: Sinnlos sind Speicherlösungen auch, wenn sie dem Admin im Alltag mehr Aufwand als Nutzen verursachen. Wie komplex ist ein Ansatz, wieviel Aufwand produziert er und wie fordernd ist ein Produkt im Hinblick auf seine Bedienung?
4. Investitionskosten: Wie viel finanzieller Aufwand ist mit dem Speicher verbunden, sowohl bei der Anschaffung als auch im laufenden Betrieb? Wer hier zum falschen Produkt greift, bindet sich langfristig an einen Hersteller und ist dessen Preispolitik ausgeliefert.
5. Standortübergreifende Möglichkeiten: Bietet der Storage (einfache) Sicherheit der Daten über einen Standort hinweg? Das Kriterium kombiniert eigentlich die Punkte 1, 3 und 4, legt das Hauptaugenmerk aber auf Disaster-Recovery-Szenarien und bietet so einen neuen Blickwinkel.
Angemerkt sei, dass die Wahl der untersuchten Storage-Plattformen in einem Artikel wie diesem immer nur einen Auszug der verfügbaren Angebote am Markt widerspiegeln kann. Schließlich gibt es heute für praktisch jeden Einsatzzweck, und sei er auch noch so spezifisch, detaillierte Lösungen von gleich mehreren Herstellern. Die Nischenprodukte sollen aber nicht im Fokus dieses Textes stehen. Stattdessen geht es um "General Purpose Storage", also Speicher, wie er in den meisten Infrastrukturen notwendig ist.
Simpel: Lokaler Speicher
Die offensichtlichste und einfachste Variante, Storage in großen Umgebungen zu realisieren, ist lokaler Speicher (DAS; Direct Attached Storage) als Komponente in Servern. Hier gibt es mehrere Varianten: Einzellaufwerke finden sich zumindest im Rechenzentrumsbetrieb heute eher selten, zum Einsatz kommen stattdessen Flash-Laufwerke im Gespann mit einem RAID-Controller.
Die technische Entwicklung all dieser Komponenten hat in den vergangenen Jahrzehnten immer wieder große Sprünge gemacht; einfaches RAID10, um eine Kombination aus Datensicherheit und Performance zu finden, gibt es heute etwa eher selten. Hochfunktionale RAID-Controller ermöglichen stattdessen RAID 5, RAID 6, RAID Z und etliche andere Modi, die deutlich effizienter mit der Kapazität umgehen und trotzdem kein höheres Risiko von Datenverlust implizieren.
Wer nicht gerade ein RAID aus mehreren Speicherlaufwerken mit aufeinanderfolgenden Seriennummern bestückt, wird sich um die Konsistenz seiner Daten im Normalfall eher keine Gedanken machen müssen – auch die Gefahr, eine komplette Baureihe mit Produktionsfehlern zu erwischen, ist dann übersichtlich.
Übersichtlich ist der administrative Aufwand, den lokaler Speicher sowohl bei der Installation als auch im laufenden Betrieb verursacht. Alle gängigen Systeme unterstützen die RAID-Konfiguration der verbreiteten Controller ab Werk in ihren Setuproutinen, und wenn ein RAID einmal läuft, ist Aufwand regelmäßig nur zu betreiben, um ausgefallene Speicherlaufwerke zu ersetzen. Selbst dann hält sich die zu leistende Arbeit allerdings in engen Grenzen.
Keine Probleme erwarten den Admin zudem beim Betrieb und der Überwachung solcher Laufwerke, denn für praktisch jede gängige Monitoringsoftware stehen Werkzeuge zur Verfügung, die direkt mit den jeweiligen Controllern kommunizieren. Noch einfacher sieht die Sache aus, wenn der Admin nicht auf hardwarebasiertes RAID setzt sondern auf Software-RAID. Dann übernimmt das Betriebssystem die Spiegelung der Daten. Ein möglicher Cache auf dem Controller steht dann zwar nicht mehr zur Verfügung, doch ist das spätestens seit schnellen Flash-Geräten kein Hindernis mehr.
Günstig, aber mit Einschränkungen
Ganz gleich für welche Option der Administrator sich hier entscheidet: Lokaler Speicher im Server dürfte nur selten ein Loch ins Budget reißen. Selbst gut ausgestattete Controller fallen finanziell nicht mehr ins Gewicht, sodass lokaler Speicher mit zu den günstigsten Optionen gehört.
Im Gegenzug ist der praktische Nutzen dieser Speicherart allerdings stark eingeschränkt. Lokaler Speicher bietet weder lokale noch entfernte Replikation; selbst ein HA-Setup bedingt also die Anschaffung eines zweiten, baugleichen Systems und die Nutzung einer entsprechenden Replikationssoftware, etwa DRBD. Denn ansonsten sind die auf einem System gehosteten Daten schlicht nicht mehr nutzbar, wenn das umgebende System den Geist aufgibt.
Eine Herausforderung ergibt sich zudem unter Umständen aus der Softwarekonfiguration. Denn soll lokaler Speicher in ein Netz exportiert werden, bedeutet auch das in aller Regel Handarbeit für den Administrator. Nicht zu vergessen ist obendrein, dass lokaler Storage sich nur schwer skalieren lässt. Ist das Gehäuse eines Servers voll, sodass zusätzliche Laufwerke keinen Platz mehr haben, ist das Ende der Fahnenstange erreicht. Lokaler Speicher eignet sich also vor allem für kleinere Umgebungen und am besten, um eine einzelne Maschine mit dem für sie notwendigen Storage zu versorgen.
Sonderfall SoHo-NAS
NAS-Geräte erfreuen sich seit Jahren wachsender Beliebtheit. Fast immer ist ein NAS (Network Attached Storage) eine Sonderform lokalen Speichers; hier kauft der Admin ein fix und fertiges, bereits mit Laufwerken bestücktes Gerät, das vor allem mit der Software punkten will, die der Hersteller mitliefert. Zu unterscheiden ist dabei zwischen typischen NAS-Appliances und RZ-fähigen NAS, auf die wir später noch im Detail eingehen.
Bei den sogenannten SoHo-NAS (Small Office, Home Office) sind QNAP und Synology die Platzhirsche am Markt und unterscheiden sich im Hinblick auf die feilgebotenen Funktionen kaum. Wichtig: Die Firmware von NAS-Anwendungen kommt ab Werk mit allerlei Möglichkeiten, um den vorhandenen Speicher per Netzwerk auch anderen Systemen zur Verfügung zu stellen. Standardmäßig kommen dabei das Samba-Protokoll oder NFS zum Einsatz. NAS-Appliances für größere Umgebungen, die es beispielsweise im 19-Zoll-Formfaktor gibt, bieten mittlerweile oft auch iSCSI. Das liegt vorrangig daran, dass sich selbst in kleineren Firmen mittlerweile regelmäßig ein 19-Zoll-Rack findet, in dem entsprechende Hardware zu installieren ist.
Für kleine NAS-Geräte gelten die Limitationen, die wir zuvor für lokalen Speicher beschrieben haben, nur eingeschränkt. Replikation zwischen SoHo-NAS etwa lässt sich problemlos konfigurieren, alle gängigen NAS-Geräte bieten ein Füllhorn an Einstellungen für ihre RAID-Laufwerke und per App-Store sind die meisten Produkte sinnvoll um Funktionen zu erweitern. Das Problem fehlender Skalierbarkeit bleibt zwar, doch gibt es die Geräte mit acht Plattenschächten oder mehr, was bei Nutzung entsprechend großer Laufwerke selbst für größere Büros völlig ausreichend ist.
Das Management dieser Geräteklasse verursacht im Alltag nur selten Probleme, weil eine gut strukturierte grafische Oberfläche bereitsteht, die selbst weniger Geschulte nach etwas Studium der Dokumentation schnell bedienen können. Die Erstinstallation bereitet entsprechend selten Probleme. In Summe eignen sich kleine NAS-Appliances mithin ideal als Speicher im Büro oder im versierten Home Office, selbst wenn die Geräte selbst nicht ganz billig sind. Diesen Nachteil gleichen sie durch das beschriebene Management-GUI aber in weiten Teilen aus.
Auch als Backupziel für Desktops kommen NAS-Geräte gern zum Einsatz. Wer für sein Rechenzentrum eine kleine NAS-Anwendung mit Netzwerkzugriff benötigt, kommt hier möglicherweise ebenfalls bereits auf seine Kosten. Zu beachten ist jedoch, dass ein NAS mit beispielsweise acht 14-TByte-Festplatten je nach Konfiguration nur sehr wenig Puffer für den Ausfall von Speicherlaufwerken bietet.
Das unterscheidet NAS und SAN
Fertige NAS-Geräte, etwa von QNAP und Synology, sind wie beschrieben vorrangig für den Einsatz zuhause oder in kleineren Umgebungen gedacht. Im Rechenzentrum braucht es eher größere Mengen an Speicher, und hier existieren auch andere Anforderungen: Mehr Redundanz, mehr Performance, mehr Anschlussmöglichkeiten. Für den Einsatz im RZ gibt es deshalb von praktisch allen großen Herstellern Storage-Arrays, die im alltäglichen Sprachgebrauch mal als NAS und mal als SAN firmieren. Doch sind die beiden Konzepte keinesfalls identisch. Gemein ist ihnen, dass sie unter einer einheitlichen Oberfläche Dienste vereinigen, die Clients den Zugriff erlauben.
Wie genau dieser Zugriff funktioniert, hängt aber stark vom Konzept ab. NAS-Geräte für das Rechenzentrum stellen wie ihre SoHo-Kollegen die Daten über ein standardisiertes Protokoll zur Verfügung. Im SAN kommt eine eigene Netzwerktechnik für den Transport der Daten zum Einsatz, meist FibreChanel oder Infiniband. Diese haben gegenüber Ethernet insbesondere den Vorteil, dass sie deutlich geringere Latenzen unterstützen. Im Gegenzug hat es der IT-Verantwortliche aber mit einer Netzwerkinfrastruktur zu tun, die parallel zur ohnehin meist existierenden Ethernet-Infrastruktur zu kaufen, zu konfigurieren und zu betreiben ist.
Der administrative Aufwand im klassischen SAN ist in der Regel erheblich höher als bei einer NAS-Appliance, was Bestandteil der Kalkulation sein sollte. Wieder spielt hier die Art des Zugriffs auf die Daten eine zentrale Rolle: SAN-Geräte exportieren per FibreChannel in der Regel einzelne Volumes, während sich auf ein NAS von vielen Clients aus parallel auf denselben Speicher zugreifen lässt.
Dem Admin sei hier daher dringend empfohlen, im Vorfeld des Kaufs eine genaue Analyse seines tatsächlichen Bedarfs durchzuführen und genau zu beschreiben, welche Funktionen zu einem späteren Zeitpunkt benötigt werden. Ist das unklar, ist im direkten Vergleich ein NAS vermutlich die bessere Option, wenn sich zumindest die nötige Menge an Platz prognostizieren lässt.
Lokaler Speicher als Backupziel
Fernab vom Rechenzentrum eignet sich lokaler Speicher übrigens noch in einem anderen Umfeld, das gerade für KMU interessant ist: Als Backupmedium für Arbeitsplatzrechner. Die zunehmende Dynamisierung des Arbeitsplatzes, der nicht zuletzt Corona ordentlich Vorschub geleistet hat, hat vielerorts die bestehenden Sicherungskonzepte über den Haufen geworfen. Kommt in einem kleinen Büro etwa ein klassisches SoHo-NAS für Backups zum Einsatz, bleiben jene Nutzer außen vor, die nur noch im Home Office arbeiten. Denn regelmäßig ein paar GByte durch das oft schwachbrüstige WLAN verschieben, bereitet kein Vergnügen. Eine simple externe USB-Festplatte leistet hier gute Dienste. Das gilt umso mehr, da viele Backupprogramme sich aus der Ferne mittlerweile so konfigurieren lassen, dass sie Anwender zu regelmäßigen Backups zwingen. Verschlüsselung ist dabei Teil des Konzepts, sodass die Vorgaben von Compliance-Regelwerken wie der DSGVO eingehalten sind.
Zentral, aber teuer
Weniger begeisternd ist das Thema Investitionskosten. Während kleine, zentrale Speicher-Appliances im RZ heute bereits für gar nicht so viel Geld über die Ladentheke gehen, sorgt ein späterer Ausbau oder der Austausch von Komponenten beim Admin nicht selten für Schnappatmung. Denn zentrale Plattformen haben immer den gefürchteten Vendor-Lock-In im Gepäck. Für das Gerät eines Herstellers kann der Administrator in aller Regel nur jene Hardware kaufen, die dieser für das jeweilige Produkt explizit zertifiziert hat. Oft genug ist das umgelabelte Hardware von der Stange mit Super-Spezial-Firmware, die aber nötig ist, damit die jeweilige Appliance das Bauteil überhaupt akzeptiert.
Und weil die Hersteller wissen, dass Kunden in einer solchen Situation de facto in der Falle sitzen, langen sie ordentlich zu. Oft genug beschleicht den Admin das Gefühl, die RAM-Erweiterung einer Storage-Appliance setze den Verkauf des Erstgeborenen voraus. Das alles betrifft unmittelbar das Thema der Datensicherheit über die Grenzen eines Standorts hinweg. Denn einerseits braucht der Admin bei so einem Aufbau gleich mehrere Geräte des jeweiligen Typs, und andererseits ist das Feature "Offsite-Replikation" oft genug in den Geräten bereits vorhanden, bedingt aber eine separate Lizenz. Das ist nicht zwangsläufig ein K.O.-Kriterium, sollte dem Administrator im Vorfeld aber bewusst sein.
Ebenfalls bewusst sollte dem Administrator sein, dass Speicher dieser Art meist nur das Skalieren in die Höhe beherrschen. Sind alle Laufwerksschächte im Gerät voll, steht die Anschaffung einer weiteren Appliance an, was den zentralen Vorteil des "Single Point of Administration" zunichtemacht. Möglicherweise lassen sich dann noch Laufwerke durch größere Laufwerke ersetzen, die natürlich wieder vom ursprünglichen Hersteller kommen müssen und dadurch vermutlich sehr teuer sein werden.
In Summe eignet sich Storage dieser Art also vor allem für Umgebungen, in denen der Admin bereits im Vorfeld einigermaßen sicher den maximalen Speicherbedarf vorherzusagen imstande ist. Dann sind die anfallenden Kosten überschaubar und im Voraus zu planen.
Skalierbare Speicher der Gegenwart
Ist eine Prognose des Speicherbedarfs nicht möglich, muss der Administrator sich zwangsläufig mit einer Art von Storage beschäftigen, die erst in den vergangenen Jahren so richtig Fuß gefasst hat: massiv skalierbaren Speichern. Meist sind diese in Form eines Objektspeichers implementiert, wobei die Außenwelt von diesem Objektspeicher in der Regel nichts mitbekommt. Auch diesen Markt haben die großen Anbieter verstärkt ins Visier genommen, doch dominieren andere Lösungen zumindest im Augenblick: Software-defined Storages (SDS) etwa nach dem Prinzip des Objektspeichers Ceph.
In der Tat spricht vieles für massiv skalierbare Speicher auf Softwarebasis. Da ist zunächst der Umstand, dass jede gängige Software in diesem Bereich sich mit Hardware von der Stange betreiben lässt. Kostspielige Spezialkomponenten gehören also der Vergangenheit an. Weil massiv skalierbare Speicher obendrein nicht nach fünf Jahren ausgesondert werden, stellt in der Regel auch Heterogenität innerhalb eines solchen Speichers kein Problem dar.
Denn wer drei Jahre nach der Anschaffung den Cluster erweitert, bestellt schließlich die dann verfügbaren größten Speichermedien und flottere CPUs, als in den ersten Servern verbaut sind. Im Hinblick auf ihre Investitionskosten sind skalierbare Speicher konkurrenzfähig, zumal die Software wie Ceph im Netz und für die meisten gängigen Distributionen fertig paketiert zur Verfügung steht.
Die GUI machts
In ihrer äußeren Erscheinung und den Kernfunktionen gleichen sich NAS und SAN. In beiden Fällen erhält der Admin ein Gerät, das sich intern automatisch um Redundanz kümmert, sodass sich der Ausfall eines oder sogar mehrerer Laufwerke nicht negativ auf die Konsistenz der Daten auswirkt. RZ-Speicher haben hier einen ausgezeichneten Ruf, weil sie in der Regel gut funktionieren, dabei aber einen großen Teil der administrativen Arbeit und der technischen Komplexität vor den Augen des Administrators verstecken. Vereinfacht ausgedrückt: Solange im GUI der jeweiligen Hardware das Status-Lämpchen grün leuchtet, weiß der Admin sich sowie seine Daten in Sicherheit. Das schlägt sich auch auf die Komplexität der Installation nieder. Die Geräte sind in der Regel leicht in Betrieb zu nehmen, wenn sie erst einmal im Rack hängen und passend verkabelt sind. Allerlei Assistenten, Wizards und Werkzeuge greifen dem Admin unter die Arme. In Sachen Datensicherheit, Installation sowie der Komplexität im laufenden Betrieb muss der Admin hier also keine Abstriche machen.
Aufwändig zu verwalten
Auch in Sachen Redundanz gibt es bei massiv skalierbaren Speichern meist wenig zu meckern. Ceph etwa ist intern ab Werk darauf ausgelegt, jede Information dreimal im Cluster vorzuhalten. Den Ausfall einzelner Laufwerke kompensieren Speicher nach dem Vorbild von Objektspeichern komplett automatisch, solange genug Resthardware zur Verfügung steht.
Einige Angebote wie etwa Ceph haben dieses Prinzip zudem auf das Thema Offsite-Replikation ausgeweitet: Alle Front-End-Typen, sei es das Ceph Block Device, das POSIX-Dateisystem CephFS oder die S3-Schnittstelle Ceph Object Gateway, lassen sich mit eigenen Werkzeugen ganz oder zum Teil an einen anderen Standort replizieren – und das anders als bei der Konkurrenz auch noch völlig kostenlos. Der Vollständigkeit halber sei erwähnt, dass viele Admins ein Produkt wie Ceph nicht ohne kommerziellen Support betreiben wollen. Und der fällt dann, je nach Anbieter, freilich durchaus wieder ins wirtschaftliche Gewicht.
Ihren wunden Punkt haben skalierbare Speicher in der Regel bei den beiden Themen Installation und Administration. Das Beispiel Ceph verdeutlich das einmal mehr: Noch immer ist die Zahl der Anbieter, die fertige Ceph-Appliances im Portfolio haben, ziemlich klein. Bis heute ist der normale Weg, einen Ceph-Cluster aus dem Boden zu stampfen, der Kauf und die Verkabelung der Hardware, die Installation von Linux und das anschließende Einrichten des Objektspeichers. Ceph selbst kommt mittlerweile mit einer GUI daher, deren Funktionsumfang an jenen von SAN- oder NAS-Appliances jedoch nicht heranreicht. Auch die einzelnen Dienste, die Clients dann nutzen sollen, um auf den Speicher zuzugreifen, muss der Admin in der Regel selbst aufsetzen. Hier ist also deutlich mehr Handarbeit angesagt, als wenn ein NAS oder SAN in Betrieb zu nehmen ist.
Ähnliches gilt für die Verwaltung: Ein Ceph-Cluster lässt sich bis heute nur sinnvoll auf der Kommandozeile administrieren, so schön das Dashboard mittlerweile auch sein mag. Zwar ist Ceph relativ pflegeleicht, doch Prozesse wie das Austauschen von Storage-Geräten verursachen einige Arbeit und der Admin tut gut daran, eine Ahnung von dem zu haben, was er macht.
Der erhöhte Aufwand im Betrieb von Ceph & Co. ist kein Plädoyer gegen diese Art von Speicher. Doch gerade der Hype um Ceph hat dazu geführt, dass viele Unternehmen sich Objektspeicher zugelegt haben, wo eine große externe Festplatte ausgereicht hätte. Der Aufwand, Ceph – im Idealfall automatisiert – zu verwalten, lohnt sich nur, wenn es tatsächlich großer Mengen an Speicherplatz bedarf. Skalierbare Speicher eignen sich also eher für große Virtualisierungsumgebungen, die mit der Kundennachfrage wachsen müssen. Um ein paar TByte zu speichern, sind sie hingegen Overkill. Und der Vorteil der geringen Kosten löst sich nicht selten in Luft auf, weil mehr Administration zu leisten ist.
Fazit
Die sinnvolle Bedarfserhebung sollte bei der Anschaffung von Speicher stets im Fokus aller Beteiligten stehen. Auf Desktops dominieren einzelne, lokale Speicherlaufwerke, die meisten Server setzen auf RAID, um eine sinnvolle Mischung zwischen Redundanz und Performance zu erreichen. Konzepte dieser Art helfen vor allem, wenn die Grenzen des Speicherplatzbedarfs absehbar sind.
Ähnliches gilt für NAS im Büro und SAN im Rechenzentrum. Auch hier spielt der Faktor der Skalierbarkeit eine zentrale Rolle. Ist diese nicht nötig, spricht nichts gegen die Anschaffung einer Appliance, insbesondere, weil deren Kosten im Voraus gut zu planen sind.
Wer hochskalierbaren Speicher braucht, kommt um eine softwarebasierte Lösung (und deutlich mehr Aufwand) kaum herum. Hier sollte das Thema Automation von Anfang an Bestandteil der Planung sein, denn die "Economy of Scale", der auch Storage unterworfen ist, ergibt sich nur bei sehr einfacher und kostengünstiger Erweiterbarkeit des Speichers.