So manch ein Anbieter von kommerziellen Speichersystemen bietet eine kostenfreie Version seiner Software als "Community Edition" an. Dabei handelt es sich um eine Mischung aus Testversion und Lock-angebot mit reduziertem Funktionsumfang. Sind die Einschränkungen erträglich, taugt die abgespeckte Variante womöglich für das eigene Rechenzentrum. Wir stellen mit NexentaStor, QuantaStor, ESOS, napp-it und Unity VSA insgesamt fünf Angebote vor.
Beim Thema Storage verlassen sich die meisten Unternehmen auf die Hard- und Software der renommierten Hersteller. Das beginnt beim kleinen Zwei-Disk-NAS und endet beim 19-Zoll-Schrank, der fast vollständig aus Festplatten besteht. Doch die Make-or-Buy-Analyse geht auch anders: Wer sein Disk-Array selbst zusammenstellt, muss sich für eine Software entscheiden, die die Daten als Dateien oder Blöcke bereitstellt.
Dieser Artikel unternimmt einen Streifzug durch das Software-Viertel der Storage-Gemeinde und präsentiert die weniger bekannten Distributionen. Jeder dieser Nachbarn würde bei Google Trends haushoch gegen die Branchengrößen verlieren, und dennoch bieten sie spezielle Funktionen für besondere Einsatzgebiete, die bei den Mainstream-NAS womöglich fehlen. Um Enttäuschungen zu vermeiden: Ziel dieses Artikels ist es nicht, eine Bauanleitung für eine hochperformante Storage-Appliance zu liefern, sondern vorhandene Hardware mit kostenfreier Software zu einem Storage-Server auszubauen.
NAS oder SAN?
Ein Network Attached Storage (NAS) ermöglicht den Zugriff auf Dateien im Netzwerk. Die gängigen Protokolle dafür sind SMB/CIFS und NFS. Ein Windows-Client verbindet sich mit einer NAS-Freigabe und spricht diese fortan unter einem neuen Laufwerksbuchstaben an.
Beim Thema Storage verlassen sich die meisten Unternehmen auf die Hard- und Software der renommierten Hersteller. Das beginnt beim kleinen Zwei-Disk-NAS und endet beim 19-Zoll-Schrank, der fast vollständig aus Festplatten besteht. Doch die Make-or-Buy-Analyse geht auch anders: Wer sein Disk-Array selbst zusammenstellt, muss sich für eine Software entscheiden, die die Daten als Dateien oder Blöcke bereitstellt.
Dieser Artikel unternimmt einen Streifzug durch das Software-Viertel der Storage-Gemeinde und präsentiert die weniger bekannten Distributionen. Jeder dieser Nachbarn würde bei Google Trends haushoch gegen die Branchengrößen verlieren, und dennoch bieten sie spezielle Funktionen für besondere Einsatzgebiete, die bei den Mainstream-NAS womöglich fehlen. Um Enttäuschungen zu vermeiden: Ziel dieses Artikels ist es nicht, eine Bauanleitung für eine hochperformante Storage-Appliance zu liefern, sondern vorhandene Hardware mit kostenfreier Software zu einem Storage-Server auszubauen.
NAS oder SAN?
Ein Network Attached Storage (NAS) ermöglicht den Zugriff auf Dateien im Netzwerk. Die gängigen Protokolle dafür sind SMB/CIFS und NFS. Ein Windows-Client verbindet sich mit einer NAS-Freigabe und spricht diese fortan unter einem neuen Laufwerksbuchstaben an.
Beim Storage Area Network (SAN) bietet der Diskserver seinen Bestand als virtuelle Festplatten blockweise im Netzwerk an. Die vorherrschenden Protokolle sind Fibre Channel und iSCSI. Ein Client verbindet sich mit der fernen Festplatte und behandelt sie in der Datenträgerverwaltung wie eine lokale Disk.
Entgegen der Zwischenüberschrift gibt es noch eine dritte Form: Objektspeicher. Dabei liegen die Daten nicht als Datei in einem Verzeichnisbaum, sondern als Objekt unsortiert auf der Festplatte. Zugriff auf das Objekt gibt es nur über den eindeutigen Identifier. Zwei der Speicherprojekte in diesem Artikel können auf den Objektspeicher Simple Storage Service (S3) von Amazon zugreifen, der sich als Quasi-Standard etabliert hat.
NexentaStor
Den Einstieg in unsere Übersicht macht NexentaStor mit seiner Community Edition [1]. Genau wie bei den anderen Kandidaten ist zunächst eine Registrierung auf der Webseite des Anbieters erforderlich, um an den Download-Link samt Lizenz zu gelangen. Die Installation gestaltet sich mit der angebotenen ISO-Datei für virtuelle Infrastrukturen oder Bare-Metal-Server einfach und branchenüblich.
Nach dem Aufspielen folgt eine Überraschung: NexentaStor ist ein Storage-Server ohne GUI oder CLI. Die Konfiguration erfolgt über die Software NexentaFusion, die auf einem anderen Server läuft. Diesmal gibt es keine ISO-, sondern eine OVA-Datei oder ein Docker-Image. Die Aufteilung von NexentaStor als Arbeitspferd und NexentaFusion als Reiter bietet Vorteile in großen Umgebungen, in denen eine einzige Management-Appliance viele Storage-Server verwaltet. Die Community Edition begrenzt die Anzahl jeweils auf eins. Dafür ist die Web-GUI elegant und modern gestaltet und nicht mit Farben und Icons überladen.
In der Oberfläche von NexentaFusion lässt sich NexentaStor über seine IP-Adresse hinzufügen. Nun benötigen Sie die Lizenz, die der Anbieter nach der Registrierung per E-Mail zugeschickt hat. Danach darf die Konfiguration der Storage-Umgebung beginnen.
NexentaStor fasst die Festplatten zu einem Pool zusammen. Der Administrator entscheidet während der Einrichtung, welche Festplatte er für Daten, Cache, Logs oder Spare einsetzen möchte. In Bild 1 entsteht ein Datenpool aus zwei Platten.
Nun muss der Administrator entscheiden, ob der Pool ein NAS oder ein SAN werden soll. Als NAS erhält der Pool unter "Management / Filesystems" ein Dateisystem und anschließend eine Freigabe über SMB oder NFS. Für die Berechtigungen der SMB-Freigabe kann NexentaStor auf ein Microsoft Active Directory (AD) zugreifen. Dazu wird der Storage-Server Mitglied im AD. Über die Freigabe lassen sich im Windows-Explorer die Berechtigungen auf die gewohnte Art vergeben.
Grundsätzlich unterstützt NexentaStor im SAN sowohl iSCSI als auch Fibre Channel, Letzteres jedoch nur mit kostenpflichtiger Lizenz. Die Community Edition ist folglich auf iSCSI beschränkt.
Die Konfiguration beginnt unter "Management / Volumes / iSCSI" mit einem neuen Target. Die Web-GUI generiert automatisch einen iSCSI Qualified Name (IQN). Wählen Sie bei "Target-Group" einen Gruppennamen, wobei dieser Schritt optional ist. Danach legen Sie unter "Management / Volumes" mit dem Zahnradsymbol zum vorhandenen Pool eine Volume-Group an. In dieser erzeugen Sie ein Volume und bestimmen die Größe des zukünftigen Laufwerks. Im letzten Schritt wählen Sie "Map Volume" und verbinden damit das Volume mit der Target-Gruppe. Das Ergebnis ist ein fertiges iSCSI-Target, das von einem iSCSI-Initiator angesprochen wird.
Prinzipiell kann ein Windows-Server bereits über den "iSCSI Initiator" das Laufwerk mounten. Aber das kann auch jeder andere Rechner im Netzwerk, da noch keine Security im Spiel ist. Dafür bietet NexentaStor eine Authentifizierung per Passwort oder beschränkt den Zugriff auf einen IQN. Wenn das SAN ein eigenes Netzsegment belegt, sollten diese Authentifizierungsformen einen adäquaten Schutz bieten.
Unser Fazit zu Nexenta: Die Software bedarf eines separaten Konfigurationshosts, sodass zwei Server zum Deployment gehören. Dafür gibt es ein NAS, das die gängigen Protokolle mitbringt und sogar Amazon S3 anbietet. Die iSCSI-Volumes lassen sich "thin" provisionieren und gegen unbefugten Zugriff absichern. Und die Dokumentation des Projekts ist hervorragend. Leider kommt die Community Edition mit deutlichen Einschränkungen: kein Fibre Channel, kein Einsatz in produktiven Umgebungen und maximal 10 TByte Speicherkapazität. Die Anzahl der Nexenta-Stor-Server ist auf einen beschränkt, also fällt Hochverfügbarkeit ebenfalls aus.
QuantaStor
Mit QuantaStor liefert der Anbieter OSNexus [2] fertige Storage-Appliances und eine Community Edition zum Reinschnuppern. Das Deployment gestaltet sich einfach: Für Bare-Metal gibt es eine ISO- und für die virtuelle Welt eine OVA-Datei – ganz ohne Registrierung. Nach der Installation bietet der neue Storage-Server eine Webseite, über die sich der Admin ohne Passwort einloggen kann. Damit ist nicht etwa Passkey gemeint, sondern ein leeres Kennwort.
Die Webseite enthält alle Konfigurationsoptionen, die QuantaStor anbietet, und sieht dementsprechend überladen aus. Nach dem ersten Login erinnert die Web-GUI an die benötigte Lizenz. Also zurück zur Webseite des Anbieters, um eine Lizenz für die Community Edition anzufragen und diese in die Web-GUI des Storage-Servers einzuspielen.
Wo die Features von NexentaStor enden, fängt QuantaStor erst an, die Konfiguration unterscheidet sich aber nur geringfügig. Alle Schritte erfolgen im Webmenü unter "Storage Management". Es beginnt mit einem Storage Pool, bei einem NAS folgt danach ein Eintrag bei "Network Shares". Die Berechtigungen kommen von lokalen Benutzern oder aus einem Active Directory, in dem der Speicherserver Mitglied werden muss.
Beim Blockspeicher folgt auf den Storage Pool ein Storage Volume. Hier kommt der erste Unterschied, denn QuantaStor benötigt zwingend einen Eintrag bei "Hosts". Damit ist der Initiatorname gemeint, den beispielsweise Windows im iSCSI-Initiator-Tool automatisch anlegt. Anschließend bekommt der neue Host das Volume zugewiesen und kann darauf zugreifen.
QuantaStor bietet mit seiner Community Edition eine erstaunliche Anzahl an Features: Neben den üblichen NAS- und SAN-Protokollen gibt es Hochverfügbarkeit, Mandantenfähigkeit, Replikation und Verschlüsselung. Die Web-GUI punktet mit Echtzeitstatistiken zu Hardwareauslastung, Datendurchsatz und erreichten I/O-Operationen pro Sekunde (IOPS). Da alle Funktionen in der GUI vorhanden sind, wirkt diese aber recht unübersichtlich und erschwert den Einstieg.
Bei den künstlichen Beschränkungen sind die Zügel lockerer als bei NexentaStor: 40 TByte pro Server und maximal vier Server pro Gruppe sind erlaubt. Leider ist die Lizenz auf zwei Jahre begrenzt und erfordert danach eine Erneuerung. Das sollte kein Problem sein, solange der Anbieter die Community Edition nicht einstellt oder sich vom Markt zurückzieht.
ESOS
Das Enterprise Storage OS (ESOS) ist eine wahre Perle unter den hier vorgestellten Ansätzen, denn alle Funktionen sind uneingeschränkt nutzbar: Fibre Channel, Hochverfügbarkeit und unbegrenzte Speicherkapazität. Dafür fehlt der kommerzielle Support. Zwar steht mit Quantum Corp ein etabliertes Unternehmen hinter ESOS, aber Unterstützung gibt es selbst gegen Geld nicht. Die Dokumentation beschränkt sich auf ein GitHub-Wiki. Was hier nicht ausreichend beschrieben ist, findet sich in den Manpages der jeweiligen Linux-Tools und Kernel-Module.
ESOS ist eine Linux-Distribution, die im Kern aus dem "SCSI Target Subsystem" (SCST) besteht und Kommandos sowie Treiber beisteuert. Die Distribution passt auf einen USB-Stick. Das ist nicht nur ein Größenvergleich, denn der ESOS-Installer [3] startet auf einem regulären Desktoprechner und installiert sich auf dem eingesteckten USB-Stick. Von diesem kann der Storage-Server booten und ist sogleich einsatzbereit. Durch diese Methode muss der Server nicht ein oder zwei Datenträger für das Betriebssystem opfern. Wer keine USB-Sticks in seiner Speicherinfrastruktur mag, kann natürlich auch eine Festplatte nutzen.
Nach der ersten Anmeldung auf der Konsole mit "root" und dem Kennwort "esos" kommt die Überraschung: ein textbasiertes User-Interface (TUI) wie aus MS-DOS-Zeiten. Das mag abschrecken, aber nach den ersten Gehversuchen lässt es sich mit den Pfeiltasten oder Tastaturkürzeln schneller bedienen als eine überladene Weboberfläche. ESOS ist ein reines SAN-Geschäft – eine SMB-Freigabe für Windows-Clients sucht der Admin vergebens.
Wenn zwei Festplatten verbaut sind, kann ESOS darüber ein Linux-typisches Software-RAID bilden. Auf diesem Fundament fußt im Menü "File Systems" zuerst ein Dateisystem, gefolgt von einem virtuellen Filesystem. Hier stehen die bekannten Größen XFS, BTRFS und EXT3/4 zur Auswahl. Das "VDisk File" bringt Flexibilität: Während das Dateisystem die gesamte Platte einnimmt, lässt sich die Größe der VDisks beliebig wählen. Die nächste Etage wird ein iSCSI-Target, das später den Storage-Clients ihre Disks anbietet. ESOS generiert einen IQN, akzeptiert aber auch beliebige Strings.
Ins oberste Stockwerk zieht im Menü "Devices" ein neues Device vom Typ "vdisk_fileio" ein. Genau wie bei QuantaStor posaunt ESOS seine Disks nicht ins Netz hinaus, sondern benötigt im Menüpunkt "Hosts" eine Gruppe, gefolgt von einem oder mehreren Initiatoren, die per IQN namentlich bekannt sein müssen. Danach folgt mit dem Schritt "Device / Map to Host Group" die Zuordnung von Device zur Hostgruppe. Die vorherigen Schritte erinnern an das Zoning in FC-Switches. Ist die Zuweisung abgeschlossen, benötigt die Konfiguration bei "Enable / Disable Target" den Startschuss. Von nun an kann der iSCSI-Initiator auf seine Festplatte(n) zugreifen. ESOS zeigt unter "Devices / LUN/Group Layout" an, welche Platte für welchen Initiator freigegeben ist.
Im obigen Szenario kümmert sich ESOS um die Redundanz der Festplatten. Andersherum kann ESOS einzelne Disks via iSCSI freigeben und der angeschlossene Server kümmert sich um die Redundanz. Legen Sie dazu zwei Devices vom Typ "dev_disk" an und verweisen dazu auf zwei unbenutzte Festplatten im ESOS-Server. Das Mapping (Add Group, Add Initiator, Map to Host Group) funktioniert wie bisher. Ein verbundener Windows-Server sieht in seiner Volume List beide iSCSI-Disks und kann in der Datenträgerverwaltung darüber ein "Spiegelung" anlegen.
Die beschriebenen Schritte im TUI von ESOS zeigen, dass der Admin während der Konfiguration in den Menüs hin- und her hüpfen muss. Da hier keine großen Webinhalte nachgeladen werden, geht die Konfiguration aber schnell von der Hand. Im Dashboard zeigt das TUI die vorhandenen Targets und den Durchsatz pro Initiator.
Damit enden die Möglichkeiten des TUI. Für die restlichen Features geht es auf die Kommandozeile. ESOS verwendet einen Linux-Kernel und bringt die Storage-affinen Kommandos mit. Sollen zwei ESOS-Server ein Hochverfügbarkeitspaar bilden, muss sich der Admin die Konfiguration für Corosync und Pacemaker selbst schnitzen.
Wer seine Storage-Infrastruktur mit ESOS ernsthaft betreiben will, sollte vor der Planung einen Blick in die Hardwareliste werfen. Hier präsentiert der Anbieter kompatible RAID-Controller, Fibre-Channel-HBAs, InfiniBand-HCAs und reguläre Netzwerkkarten.
Das Enterprise Storage OS ist eine kleine, aber leistungsfähige SAN-Software. Es gibt keine künstlichen Einschränkungen, keine Registrierung, keine Demolizenz und leider auch keine NAS-Protokolle. Die Konfiguration erfolgt über ein Textmenü und teilweise über die Kommandozeile, was anfangs etwas ungewohnt ist. Dafür gibt es Fibre Channel, Fibre Channel over Ethernet (FCoE), iSCSI und sogar InfiniBand.
napp-it
napp-it ist die Allzweckwaffe für Speichersysteme. Die Liste der verfügbaren Features verspricht alles und die Free Edition setzt diesem Konzept keine Grenzen. Bei näherer Betrachtung ist napp-it ein Web-GUI für die Distribution OmniOS. Das erklärt auch die Installation: OmniOS aufspielen, Skript von napp-it [4] laden und ausführen. Nach kurzer Zeit meldet sich die Web-GUI auf TCP-Port 81 und präsentiert ihre Fähigkeiten in handlichen Dropdown-Menüs. Die Oberfläche ist ein Befehlsparser, der Kommandos in Menüs einsortiert. Um napp-it sinnvoll nutzen zu können, ist also ein gründliches Vorwissen über Themen und Befehle notwendig.
Die Vielzahl der Menüs ist auf den ersten Blick erschlagend, aber die meisten Aktionen finden in den Bereichen "Pools" und "ZFS Filesystems" statt. Der Name lässt bereits erahnen, dass napp-it die Funktionsvielfalt von ZFS zu nutzen weiß.
Die NAS-Route beginnt im Menü "Pools" mit einem neuen Pool, der aus mehreren Festplatten besteht. Auf diesem Pool macht sich im Menü "ZFS Filesystems" das gleichnamige Dateisystem breit, welches bei der Einrichtung mit der Option "SMB share: on" automatisch eine Freigabe für die Windows-Clients anhängt. Achtung bei der Namenswahl, denn die Freigabe wird später genauso heißen wie das Dateisystem.
Für den Zugriff auf die SMB-Freigabe bietet napp-it sowohl lokale Benutzerkonten als auch die Anbindung an ein Active Directory. Genau wie bei NexentaStor und QuantaStor wird der napp-it-Server Mitglied im AD unter "Services / SMB / Active Directory". Die Berechtigung von AD-Usern und -Gruppen erledigt die Software über die eigene Web-GUI bei "ZFS Filesystems / ACL extension / ACL on SMB shares", die etwas holprig zu konfigurieren ist.
Der Weg zum SAN verläuft ebenfalls über ZFS: Erstellen Sie ein neues Dateisystem, diesmal jedoch ohne SMB-Share. Klicken Sie anschließend in der "FC,IB,iSCSI"-Spalte auf "zfs unset" und wählen Sie im folgenden Dialogfenster die Größe des zukünftigen iSCSI-Volumes aus.
Damit können alle Initiatoren im Netz auf die neue SAN-Disk zugreifen. Ein Mapping in Form von Host-Groups hält napp-it im Menü "Comstar / Host-Groups" bereit. Erstellen Sie mit "create host-group" eine neue Gruppe und füllen Sie sie mit dem gewünschten Initiator bei "add members". Die Gruppe lässt sich im ZFS- oder Comstar-Menü einsetzen, um den Zugriff auf die Platten einzuschränken.
Wer den Weg durch die Web-GUI gefunden hat und seinen Clients Daten bereitstellt, wird mit Charts im Realtime-Monitor belohnt. Beim Streifzug durch die Oberfläche tauchen weitere Features auf, die den Storage-Server erweitern: Snapshots, Rsync, Host-Firewall, Verschlüsselung, Replikation und jede Menge Statistiken mit Echtzeitanzeigen. Die freie Edition von napp-it schränkt weder die Funktionalität noch die Menge an TByte ein. Das einzige Limit ist die Version: Zahlende Kunden erhalten immer die neueste Version, während die kostenlose Software um einige Versionsstände hinterherhinkt.
napp-it benötigt wenig Ressourcen, ist schnell installiert und basiert auf einem stabilen Unix. Die Liste der Features ist lang und ohne Einschränkungen. Leider gilt dies nicht für die Dokumentation, die auf etwa 70 Seiten alle Funktionen beschreibt – teilweise nur in wenigen Sätzen. Wer dieses Angebot in Erwägung zieht, sollte den Lern- und Trainingsaufwand nicht unterschätzen. Die GUI als Aushängeschild ist nicht wirklich schick oder modern, dafür aber flott.
Unity VSA
Im letzten Reihenhaus der Storage-Gemeinde wohnt die Unity Virtual Storage Appliance (VSA) von Dell/EMC. Damit spendiert Dell der Community eine kostenfreie Version seiner Unity-Software [5]. Das klingt großzügig, denn die anderen Mitglieder des Gartner Magic Quadrant "Primary Storage" sind nicht derart spendabel.
Leider ist der Beschaffungsprozess für diese Software etwas anspruchsvoller. Dell erwartet einen Business-Account mit Geschäftsadresse – 10-Minute-Mail scheidet aus. Vor dem Download der Software lohnt sich ein Blick auf die Version: Nummern kleiner als 5.3 akzeptieren die ausgestellte Lizenz nicht.
Dell belohnt den Aufwand mit einer OVA-Datei, die sich direkt in einen ESXi-Server importieren lässt. Damit stellt der Anbieter bereits klar, dass die Unity-VSA ausschließlich für virtuelle Umgebungen vorgesehen ist. Der Import-Wizard fragt nach der gewünschten IP-Adresse, dem Gateway und dem Hostnamen. Anschließend entsteht eine VM, und sie geizt nicht mit Ressourcen: 12 GByte Arbeitsspeicher, 74 GByte Festplattenplatz und sechs Netzadapter. Nach einer Startzeit von etwa zehn bis 15 Minuten ist die Storage-VM einsatzbereit.
Der Zugriff auf die Weboberfläche erfolgt über die IP-Adresse, die der Wizard zuvor beim Import abgefragt hat. Es erscheint das gleiche Look-and-Feel, das Storage-Administratoren von ihrer Hardware-Unity kennen. Es beginnt mit einem Willkommensdialog, der während des Interviews eine System-UUID präsentiert und eine passende Lizenz erwartet, die Dell hinter dem angezeigten Link online ausstellt.
Dass es sich hier nicht um eine vollwertige Unity handelt, wird an den Einschränkungen der Community Edition deutlich: Maximal 4 TByte Storage sind erlaubt und es fehlt die Unterstützung für Fibre Channel. Diese Beschränkung ist nicht zuletzt darauf zurückzuführen, dass eine virtuelle Maschine keinen FC-Adapter besitzt.
Sobald diese Hürden genommen sind, darf die virtuelle Unity zu einem NAS-Filer oder SAN-Array werden. Das NAS benötigt zuerst einen Storage-Pool, der aus einer oder mehreren Festplatten besteht, wobei der Admin jeder Festplatte noch das Label Extreme-Performance, Performance oder Capacity verpassen muss. Hier ist genaues Hinsehen wichtig, denn die Unity kann nicht erkennen, ob die virtuelle Disk auf einer flotten SSD oder einer rotierenden Near-Line-SAS liegt. Ein Mix der verschiedenen Disks innerhalb eines Pools ist erwünscht und soll dem Fileserver die bestmögliche Performance bringen.
Oben auf den Storage Pool kommt bei "Storage / File / NAS Servers" der NAS-Kopf, der eine zusätzliche IP-Adresse einfordert – die Adresse vom Management-Interface lässt sich hier nicht nutzen. Während der Einrichtung erkundigt sich der Assistent noch nach den gewünschten Protokollen: SMB und/oder NFS. In diesem Schritt sollten Sie die Unity auch gleich in Ihre AD-Domäne aufnehmen, um später die Dateiberechtigungen bequem vom Windows-PC zu erledigen. Fertig ist das NAS.
Eine neue SAN-Festplatte beginnt unter "Storage / Block / iSCSI Interfaces". Erstellen Sie hier ein weiteres Netzinterface mit einer neuen IP-Adresse. Im gleichen Dialog schlägt die Unity einen IQN vor, den Sie mit einem Alias personalisieren können. Nach Abschluss des Assistenten ist das iSCSI-Target zwar schon sichtbar, aber die Zuordnung unter "Access / Hosts" fehlt noch. Hier benötigt der zugreifende iSCSI-Initiator seinen Eintrag.
Im letzten Schritt benötigt das Konstrukt eine Logical Unit Number (LUN), damit der Server sein Stückchen vom Storage korrekt adressieren kann. Legen Sie unter "Storage / Block / LUN" eine neue LUN an und verknüpfen Sie diese mit einem Pool und dem iSCSI-Host. Anschließend können Sie wie gewohnt bei Windows den iSCSI-Initiator starten, die Zieladresse des iSCSI-Interfaces scannen und die Platte einhängen.
Alle Schritte der Web-GUI lassen sich in der Kommandozeile ausführen. Unter der Unity läuft zwar ein Linux, aber Dell hat eigene Befehle für die Administration dabei. Aktivieren Sie zunächst den SSH-Dienst unter "Service / Service Tasks / Enable SSH" und melden Sie sich dann über SSH mit dem Service-Account an. Der CLI-User-Guide ist knapp 600 Seiten lang, daher hier nur ein paar Tipps: Kleinere Verwaltungsaufgaben und Nützliches zur Fehlersuche erledigen etwa 60 verschiedene Befehle, die allesamt mit "svc_" beginnen. Für die Einrichtung von Pools, LUNs und allem, was die Web-GUI bietet, gibt es das Allround-Kommando "uemcli", das auch unter Linux und Windows verfügbar ist. Damit lässt sich die Konfiguration der VSA skripten und beispielsweise mit Ansible automatisiert ausrollen.
Die virtuelle Unity ist zwar eine vollwertige Storage-Appliance, aber der Einsatz als virtuelle Maschine verbietet viele Anwendungsfälle. Beispielsweise ergibt ein Szenario keinen Sinn, in dem die Unity VSA ihre Festplatten für einen ESXi-Server bereitstellt. Die Community-VSA richtet sich daher eher an Laborumgebungen, in denen sich eine Konfiguration ausprobieren lässt, ohne die physische Unity aufs Kreuz zu legen. Weiterhin kann VSA für die Vorbereitung auf eine Zertifizierung herhalten. Generell empfiehlt Dell VSA nicht für produktive Umgebungen.
Übersicht kostenfreie NAS/SAN-Appliances
NexentaStor
QuantaStor
ESOS
napp-it
Unity VSA
Version
5.5.0 FP2
6.2.0
4.1.11
21.06
5.3
Softwarestand
Jul 2023
Sep 2023
Okt 2023
Jun 2023
Mai 2023
Konfiguration via
WebGUI/CLI
WebGUI/CLI
TUI/CLI
WebGUI
WebGUI/CLI
Komplexität der Einrichtung
mittel
hoch
hoch
mittel
mittel
Bare metal / virtuell
✓ / ✓
✓ / ✓
✓ / X
✓ / ✓
X / ✓
Installation via
ISO+OVA 1)
ISO/OVA
Skript
ISO/OVA
OVA
Open Source
X
X
✓
✓
X
Betriebssystem
Illumos Unix
Ubuntu
Linux
OmniOS
SUSE Linux
IPv6
✓
X
X
✓
✓
Kommerzieller Support
✓
✓
X
✓
✓
SAN
iSCSI
iSCSI/FC
iSCSI/FC/IB
iSCSI/FC
iSCSI
NAS
SMB,NFS,S3
SMB,NFS,S3
X
SMB,NFS,S3
SMB,NFS,FTP
Fazit
Einige der großen Storage-Player geben ihren Kunden eine Community Edition an die Hand, die kostenlos mit Einschränkungen nutzbar ist. Diese Software kann für kleine und mittlere Infrastrukturen durchaus interessant sein. Wenn die Einschränkungen des Herstellers zur eigenen Umgebung passen, lohnt sich ein prüfender Blick mit anschließender Demoinstallation.
Die vorgestellten Softwareprodukte lassen sich mit der passenden Hardware und vielen Festplatten zum NAS-Filer oder SAN-Array ausbauen. Eine Ausnahme bildet ESOS, das eine reine SAN-Appliance ist. Das Ergebnis ist ein robuster Storage-Server, der sich über die mitgelieferte Konfigurationsoberfläche besser verwalten lässt als ein Linux mit Samba-Freigabe.