Um ein Gefühl für den Umgang mit einer hyperkonvergenten Infrastruktur von Nutanix zu bekommen, stellt der Hersteller neben seinem kommerziellen Produkt, der Nutanix-On-Prem-Cloud, auch eine kostenlose Version zur Verfügung. Die Community-Edition ist für diejenigen gedacht, die die ersten Schritte in der Umgebung machen möchten. Wir zeigen den Weg hin zu Ihrem Nutanix-Cluster.
Wir möchten zu Beginn unseres Workshops betonen, dass die Community-Edition von Nutanix nur zu Testzwecken entwickelt wurde. Sie ist kein Ersatz für die Production-Version, denn mit der Community-Edition stehen Ihnen nicht alle Möglichkeiten, die Sie mit der kostenpflichtigen Version haben, zur Verfügung. So unterstützt die Community-Edition beispielsweise nur zwei Hypervisoren: den AHV von Nutanix und ESXi von VMware. Die Grundausstattung einer privaten Enterprise-Cloud von Nutanix basierend auf der Community-Edition umfasst neben dem Hypervisor die Controller-Virtual-Machine, kurz CVM, und das dazugehörige Cloudmanagement-System, das Prism-Element zur Einzel-Clusterverwaltung und für die übergeordnete Multi-Clusterverwaltung Prism-Central.
Weiterhin ist es mit der Community-Edition möglich, einen One-Node-, einen Drei-Node- oder Vier-Node-Cluster aufzubauen. Alle weiteren denkbaren Cluster-Kombinationen sind ausschließlich der Production-Version vorbehalten. Die einzelnen Komponenten der Community-Edition, wie der Hypervisor AHV und das Cloud-Operation-System AOS, das auf den einzelnen CVMs im Cluster basiert, sowie das Cloud-Management-System lassen sich nicht mit Komponenten der Production-Version vermischen. Das bedeutet, dass Sie einen Community-Edition-Cluster nicht mit Prism-Central der Production-Version verwalten können. Auch umgekehrt ist es nicht möglich, mit Prism-Central der Community-Edition einen Production-Cluster zu steuern.
Möchten Sie als Hypervisor ESXi von VMware in der Community-Edition nutzen, denken Sie außerdem daran, dass Sie dann die Microsegmentation-Funktionalität "Flow" von Nutanix nicht verwenden können, da sie nur in Verbindung mit AHV einsetzbar ist.
Wir möchten zu Beginn unseres Workshops betonen, dass die Community-Edition von Nutanix nur zu Testzwecken entwickelt wurde. Sie ist kein Ersatz für die Production-Version, denn mit der Community-Edition stehen Ihnen nicht alle Möglichkeiten, die Sie mit der kostenpflichtigen Version haben, zur Verfügung. So unterstützt die Community-Edition beispielsweise nur zwei Hypervisoren: den AHV von Nutanix und ESXi von VMware. Die Grundausstattung einer privaten Enterprise-Cloud von Nutanix basierend auf der Community-Edition umfasst neben dem Hypervisor die Controller-Virtual-Machine, kurz CVM, und das dazugehörige Cloudmanagement-System, das Prism-Element zur Einzel-Clusterverwaltung und für die übergeordnete Multi-Clusterverwaltung Prism-Central.
Weiterhin ist es mit der Community-Edition möglich, einen One-Node-, einen Drei-Node- oder Vier-Node-Cluster aufzubauen. Alle weiteren denkbaren Cluster-Kombinationen sind ausschließlich der Production-Version vorbehalten. Die einzelnen Komponenten der Community-Edition, wie der Hypervisor AHV und das Cloud-Operation-System AOS, das auf den einzelnen CVMs im Cluster basiert, sowie das Cloud-Management-System lassen sich nicht mit Komponenten der Production-Version vermischen. Das bedeutet, dass Sie einen Community-Edition-Cluster nicht mit Prism-Central der Production-Version verwalten können. Auch umgekehrt ist es nicht möglich, mit Prism-Central der Community-Edition einen Production-Cluster zu steuern.
Möchten Sie als Hypervisor ESXi von VMware in der Community-Edition nutzen, denken Sie außerdem daran, dass Sie dann die Microsegmentation-Funktionalität "Flow" von Nutanix nicht verwenden können, da sie nur in Verbindung mit AHV einsetzbar ist.
Alles ist miteinander verbunden
Bei der Installation und dem anschließenden Testen der Community-Edition kann es durchaus sinnvoll sein, ab und an auf die Kommandozeile zu wechseln. Dazu sollten Sie wissen, wie Sie sich im Netzwerk zurechtfinden und Sie welches Modul und welchen Service erreichen können – egal, ob Sie AHV oder ESXi verwenden, es gibt grundsätzlich immer mindestens zwei Netze. Ein internes Netzwerk, das nicht an einen physischen Netzwerkadapter angebunden ist, und ein externes Netzwerk, an dem die vorhandenen physischen Adapter angeschlossen sind. Das interne Netzwerk dient dazu, die Kommunikation zwischen der CVM und dem Hypervisor sicherzustellen. Dazu kommt das Netzwerk 192.168.5.0 zum Einsatz.
Hierbei besitzt der Hypervisor immer die IP-Adresse 192.168.5.1 und die CVM die IP-Adresse 192.168.5.2. Das heißt, dass nach der Installation immer zwei virtuelle Bridges beziehungsweise virtuelle Switches je Node im Cluster durch den Installationsprozess erzeugt werden. Wenn Sie AHV einsetzen, finden Sie "vir br0" und "br0" im Node, im Fall von ESXi "vSwitch Nutanix" und "vSwitch 0".
Die externen IP-Adressen der CVM und des Hypervisors vergeben Sie im Zuge des Installationsprozesses. Möchten Sie nun die Konsole des AHV erreichen, können Sie sie entweder über das externe Netzwerk ansprechen oder über das interne Netzwerk. Für die Konsole der CVM gilt das Gleiche: Sie können von extern oder auch von intern auf die Konsole der CVM gehen.
In der Tabelle "Nutanix-Benutzernamen" geben wir Ihnen eine Übersicht, mit welchen Konten Sie auf das System kommen. Dazu gehört der Anmeldename "root", um auf die Konsole des Hypervisors zu gelangen, und der Anmeldename "nutanix" für die Konsole der CVM sowie das dazugehörige Passwort "nutanix/4u", das Sie ebenfalls für die Anmeldung an den jeweiligen Konsolen benötigen.
Nutanix-Benutzernamen
Komponente
Protokoll
Benutzername
Passwort
Controller VM
SSH
nutanix
nutanix/4u
AHV
SSH
root
nutanix/4u
ESXi
SSH
root
nutanix/4u
Prism Element
HTTPS (Port 9440)
admin
nutanix/4u
Prism Central
HTTPS (Port 9440)
admin
nutanix/4u
Installationsmedien für die Community-Edition
Im ersten Schritt ist es notwendig, dass Sie sich einen entsprechenden Account bei Nutanix anlegen ("NEXT"-Konto). Hierzu folgen Sie dem Link [1] und registrieren sich unter "Get Access Today!" mit Ihrer E-Mail-Adresse. Nachdem Sie den Registrierungsprozess vollständig durchlaufen haben und über Ihren persönlichen Nutanix-Next-Zugang verfügen, sind Sie nun berechtigt, sich im Portal [2] einzuloggen.
Auf der Nutanix-Community-Portal-Site sehen Sie dabei das Feld "Download Nutanix Community Edition". Nachdem Sie hierauf geklickt haben, wird sofort die Download-Site der Community-Edition geladen und Sie können sich nun einen ersten Überblick über das verschaffen, was Ihnen dort alles an Binaries zur Verfügung steht. Zum Zeitpunkt der Erstellung dieses Artikels lag die Community-Edition in der Version CE-2020.09.16 vor. Da kürzlich eine neue Production-Version herauskam (AOS LTS 5.20 und AOS STS 6.0), ist anzunehmen, dass im Anschluss auch eine neue Community-Version folgt.
Für die Installation der Community-Edition benötigen Sie das Installer-ISO. Laden Sie sich die entsprechende ISO-Datei ("ce-202y.mm.dd.iso") herunter. Mit dieser können Sie in einem vollautomatisierten Prozess die CVM und AHV auf Ihren Nodes installieren. Möchten Sie anstelle von AHV lieber ESXi als Hypervisor in Ihrem Nutanix-Lab-Cluster nutzen, benötigen Sie zusätzlich noch das Image des vSphere-Hypervisors (ESXi-ISO). Möchten Sie, nachdem Ihr Cluster installiert und konfiguriert ist, zudem Prism Central installieren und einrichten, benötigen Sie dazu auch noch das entsprechende Binary.
Laden Sie sich hierfür das "Prism Central Deployment"-File in Form eines TAR-Archivs sowie die Datei "Metadata for AOS upgrade and PC deploy/upgrade"als ZIP-File herunter. In Letzterem befindet sich neben den JSON-Dateien für Upgrades auch die Datei "ce-pc-deploy-202y.mm.dd-metadata.json", die Sie für die Installation von Prism-Central benötigen.
Laden Sie sich anschließend noch die VirtIO-Driver und – sofern Sie auf der Community-Edition auch End User Computing (EUC) beziehungsweise Virtual Desktops (VDI) ausprobieren möchten – noch die entsprechenden Plug-ins herunter. Unter der Rubrik "Documentation and Guides" auf dieser Site finden Sie zusätzlich jede Menge an weiterführender Dokumentation zur Community-Edition in Form von PDF- und Videodateien.
Installation vorbereiten
Sie haben nun alles an benötigter Software heruntergeladen. Bleibt noch die Frage, wie installieren Sie die Community-Edition: physisch oder virtuell, also nested. Auch müssen Sie sich entscheiden, ob es ein Ein-, Drei- oder Vier-Node-Cluster werden soll. Aber egal, wofür Sie sich letztendlich entscheiden, prinzipiell läuft die Installation immer gleich ab. Schauen wir uns erst einmal das Erstellen eines Ein-Node-Cluster-Labs an, basierend auf der Community-Edition mit Nutanix AHV als Hypervisor, Prism Central als Multi-Cluster-Management und einem Intel-NUC-Mini-PC als Hardwareplattform.
Beim NUC, den wir für den Aufbau unseres Beispiel-Labs verwenden, handelt es sich um das Modell NUC8 i7 BEH. Ausgestattet ist das Gerät mit zwei Mal 32 GByte DDR4-2666 SO-DIMMs, also 64 GByte Memory in Summe. Weiter verfügt der Rechner über eine 512-GByte- und eine 1-TByte-SSD sowie einen Vierkern-Intel-Core-i7-8559U-Prozessor der 8. Generation mit 2,7 GHz. Damit ist die Maschine zwar nicht mehr ganz aktuell, aber für das Lab vollkommen ausreichend. Sollten Sie für Ihre Installation keinen solchen Rechner zur Hand haben, nutzen Sie ein alternatives Gerät mit ähnlicher Hardware. Möchten Sie dagegen Ihr Lab nested aufbauen, orientieren Sie sich bezüglich der VM ebenfalls an diesen Eckdaten.
Damit die Installation Ihres Labs nicht ins Stocken gerät, empfiehlt es sich, im Vorfeld alle notwendigen Informationen bereitzulegen. Sie werden einen DNS-Server, einen Default-Gateway, mindestens zwei NTP-Server und – wenn Sie Ihr Lab ans Active Directory anbinden möchten – natürlich auch dafür die entsprechenden Zugangsdaten benötigen. Weiter brauchen Sie eine IP-Adresse aus Ihrem Lab-Netzwerk für die CVM, eine weitere für den One-Node-Cluster selbst, eine für den Fall, dass Sie mittels Nutanix-Volumes ein iSCSI-Target bereitstellen möchten, natürlich noch eine IP-Adresse für den Hypervisor und dann eine IP-Adresse für Prism Central. Zusätzlich benötigen Sie noch einen eindeutigen Namen für den Nutanix-Cluster und für Prism Central.
USB-Installationsstick erstellen
Es werden zwei USB-Sicks für die Installation des Servers benötigt. Ein USB-Stick dient der Installation, der zweite kommt als Installationsziel beziehungsweise als Boot-Device zum Einsatz. Was die Kapazität der Sticks angeht, sind 32 GByte eigentlich vollkommen ausreichend. Für das Erstellen eines bootfähigen USB-Sticks können Sie einen USB-Installer Ihrer Wahl nutzen, so zum Beispiel "Rufus" [3].
Nehmen Sie nun die heruntergeladene "ce-2020.09.16.iso"-Datei und erstellen mit einem der beiden USB-Sticks einen bootfähigen USB-CE-Installations-Stick. Planen Sie allerdings, die Community-Edition nested zu installieren, ist dieser Schritt natürlich nicht erforderlich, da Sie das CE-Image direkt in der virtuellen Hardware mounten. Auch der zweite USB-Stick ist selbstverständlich nicht notwendig, da Sie einfach nur eine weitere virtuelle Disk mit beispielsweise 32 GByte als Installationsziel der VM hinzufügen können.
IP-Adressen für größere Cluster
Sollten Sie sich eher für die Installation eines Drei- oder Vier-Node-Clusters interessieren, denken Sie daran, dass Sie natürlich für jeden einzelnen Hypervisor und jede einzelne CVM, die sich ja auf den Nodes Ihres Clusters befinden, eigene IP-Adressen benötigen.
Lokale Nutanix-Cloud einrichten
Kommen wir nach der Vorbereitung zur Installation der CE auf dem Intel NUC. Stecken Sie die beiden USB-Sticks in die entsprechenden Ports des Servers und schalten ihn ein. Auf dem an den NUC angeschlossenen Monitor lässt sich nun der Installationsvorgang verfolgen und je nach Art der Hardware, die Sie in Ihrem Lab einsetzen, wird dann früher oder später das "Nutanix CE Installer Konfigurations Frontend" angezeigt, in dem Sie Ihren Nutanix-One-Node-Cluster einrichten.
Als Erstes wählen Sie nun den Hypervisor aus, den Sie in Ihrem Cluster nutzen möchten. Entscheiden Sie sich für Nutanix AHV, können Sie direkt mit der Diskzuordnung unter Punkt 2 weitermachen, da AHV ein integraler Bestandteil des CE-Images ist. Entscheiden Sie sich für ESXi als Hypervisor, müssen Sie Ihr ESXi-Installations-Image via HTTP bereitstellen, zum Beispiel in der Form "http://<Webserver>/iso/esxi.iso". Da wir für diesen Workshop AHV als Hypervisor verwenden, kreuzen wir in der Auswahl unter Punkt 1 AHV an.
Im Punkt 2 von Bild 4 können Sie nun sehen, was alles an Datenträgern im Server zu finden ist. Wie Sie erkennen, wurde "sdd" als USB-Installationsziel für den Hypervisor ausgewählt und auf "sda" wird die CVM installiert. In den unter Punkt 3 markierten Feldern vergeben Sie nun die Adressdaten für das Außennetz des Hypervisors. Unter Punkt 4 können Sie die Außenadressdaten für die Controller VM eingeben. Unter Punkt 5 wird Ihnen ferner die Möglichkeit gegeben, den Cluster automatisiert vom Installationsprozess erzeugen zu lassen. Das ist eigentlich in Ordnung, wenn Sie einen Ein-Node-Cluster erstellen wollen. Möchten Sie allerdings zum Beispiel einen Drei-Node-Cluster anlegen, kann es durchaus von Vorteil sein, dass Sie den Cluster erst nach vollständiger und erfolgreicher Installation sämtlicher Nodes manuell mit dem Befehl
auf der Kommandozeile einer Controller-VM anlegen. Ein anschließender Cluster-Start ist bei der Neuerstellung eines Clusters nicht erforderlich, da der Cluster nach der Erzeugung automatisch anläuft. Aber warum führen wir das nicht vollständig automatisiert durch, sondern mit einem nachträglichen Cluster-Build? Sollte die Installation nur eines Nodes aus irgendeinem Grund fehlschlagen, müssen Sie den ganzen Cluster nochmal erstellen. Das möchten wir uns damit ersparen.
Haben Sie alles eingegeben und eingestellt, klicken Sie auf "Next Page". Nun gelangen Sie zu den End User License Agreements, kurz "EULA". Nach dem Akzeptieren der Nutzungsbedingungen klicken Sie auf "Start" und die Installation beginnt. Sie können nun anhand der Ausgaben auf der Konsole den gesamten Installationsvorgang auf dem Monitor mitverfolgen. Die ganze Installation und das anschließende Hochfahren des Dienstes dauern mit der in unserem Beispiel verwendeten Hardware gute 30 Minuten. Eigentlich sehr wenig Zeit dafür, dass dann aber auch die Nutanix-CE-One-Node-HCI komplett fertig installiert und grundkonfiguriert ist. Ziehen Sie nun den USB-Installations-Stick heraus, wenn das System Sie dazu auffordert, geben auf der Konsole ein "Y" für "ja ich will den Neustart ausführen" ein und es erfolgt ein Systemneustart. Jetzt noch schnell den Cluster erstellen. Da die Option "Cluster sofort im Zuge der Installation mit erstellen" hier bei dieser Installation nicht ausgewählt wurde, ist das nach dem Neustart nun der nächste und letzte Schritt.
Verbinden Sie sich jetzt via SSH mit der CVM (ssh nutanix@<IP-Adresse der CVM>) und geben Sie den Befehl cluster -s <cvm_ip> create ein. Dann warten Sie, bis das System den Cluster erstellt und alle Services hochgefahren hat. Auch hier ist wieder etwas Geduld angesagt. Den Fortschritt können Sie sich mittels cluster status anzeigen lassen. Melden Sie sich, nachdem alle Cluster-Prozesse hochgefahren sind und Sie ein "Success" in der Ausgabe gesehen haben, zuerst am UI-Prozess "Prism Element" der CVM unter "https://<IP-Adresse der CVM>:9440/" an. Die erste Anmeldung erfolgt mit dem Namen "admin" und dem Passwort "nutanix/4u". Das User Interface erwartet nun die Eingabe eines neuen Passworts. Anschließend muss die Anmeldung dann nochmals mit dem neuen Kennwort erfolgen. Im nächsten Schritt erwartet Prism Element dann einmalig die Eingabe des NEXT-Accounts. Danach erscheint die Startseite von Prism Element.
Klicken Sie nun auf das Zahnrad (Settings) oben in der rechten Ecke der UI und erstellen Sie über "Network Configuration " und "Create Network" ein neues Netzwerk. Für den Netzwerknamen verwenden wir "vlan.0" und als VLAN-ID die "0".
Sie könnten nun damit beginnen, Ihre VMs auf der Plattform zu installieren. Eine kurze Livedemo zur Einführung in Prism Element finden Sie unter [4]. Jetzt fehlt noch etwas Feintuning, wie das Vergeben von Clusternamen, Cluster-IP-Adresse und der IP-Adresse für das iSCSI-Target "Nutanix-Volumes". Sie können das Ganze allerdings auch über die Kommandozeile durchführen, wie in der Tabelle "Nützliche Befehle" dargestellt. Weitere Kommandos und Skripte finden Sie unter [5] oder Sie geben auf der CLI der CVM einfach ncli oder acli ein und drücken dann die TAB-Taste, um sich intensiver mit den einzelnen Befehlsreferenzen zu beschäftigen.
Klicken Sie in der UI nun auf den Punkt "Unnamed" und geben in die einzelnen Felder des Formulars den Namen für Ihren Cluster und die entsprechenden IP-Adressen ein. Damit wäre alles erledigt und Sie können Ihre Cloud im eigenen Lab erkunden und nutzen.
Prism Central und weitere Features
Sind Sie mit Ihrer Installation an dieser Stelle angekommen, verfügen Sie über Ihren ersten Nutanix-Test-Cluster. Die Macher der Community-Edition sorgen dafür, dass immer wieder neue Verbesserungen in die Testplattform einfließen. Überprüfen Sie es, indem Sie das System mittels LCM, dem Life Cycle Manager, aktualisieren.
Zusätzliche Informationen zu LCM finden Sie unter [6] oder Sie gehen einfach auf die Prism-Element-UI und klicken im Home-Menü auf "LCM". Hier werden Sie dann entsprechend vom System geführt und auch mit den notwendigen Informationen wie den Nutanix-KB-Artikeln versorgt.
Haben Sie sich nun mit der Plattform vertraut gemacht und Ihre eigenen Workloads ausgiebig mit der CE getestet, gehen Sie den nächsten Schritt und testen die weitere Produkte von Nutanix auf Ihrem CE-HCI-Cluster. Installieren Sie sich nun zuerst Prism Central, das die Basis für jede Menge weiterer Produkte darstellt. Das Deployment von Prism Central erfordert nur wenige Schritte. Melden Sie sich zuerst an der Prism-Element-UI an. Oben links sehen Sie im Browser dann ein Feld mit der Bezeichnung "Prism Central". Klicken Sie auf den Link "Register or create new". Jetzt geht ein Formular auf, in dem Sie die Prism-Central-Binaries "ce-pc-deploy-2020.09.16-metadata.json" und "ce-pc-deploy-2020.09.16.tar", die Sie zuvor von der CE-Community-Site heruntergeladen haben, hochladen können.
Nach dem erfolgreichen Upload klicken Sie auf "Install". Dann wählen Sie aus, ob es eine geclusterte Installation sein soll und ob Sie ein "LARGE"- oder ein "SMALL"-Environment ausrollen möchten. Nun folgen noch die Eingabe der IP-Adresse, des Gateways und mindestens eines DNS-Servers. Mit dem Klick auf "Deploy" erfolgt dann der Rollout der Prism-Central-VM im Cluster. Ist der Installationsprozess gemäß der Task-Anzeige in Prism Element fertig, registrieren Sie Ihr Prism Central mit Ihrem "NEXT-Account".
Melden Sie sich unter "https://<IP-Adresse Prism Central>:9440" an Ihrem neuen Prism Central mit "admin" und "Nutanix/4u" an. Erinnern Sie sich noch an die Erstanmeldung am Prism Element? Ganz genauso funktioniert es hier auch. Kommen wir nun zur CE-Cluster-Registrierung in Prism Central. Gehen Sie in Ihr Prism Element (https://<IP-Adresse der CVM>:9440), klicken Sie erneut auf den Link "Register or create new" und wählen Sie "Connect" aus. Nach der Eingabe der IP-Adresse, des Anmeldenamens und des Passworts von Prism Central und einem Klick auf "Connect" wird der Cluster registriert.
Nachdem Prism Central zur Verfügung steht, kann es weitergehen. Testen Sie den skalierbaren File-Server, den ebenfalls skalierbaren Object Storage beziehungsweise S3-Storage von Nutanix oder schauen Sie sich die Microsegmentierungslösung "Flow" genauer an. Möchten Sie Automatisierung von Workloads oder Arbeitsprozessen kennenlernen, ist sicherlich Calm für Sie ein Muss oder gehen Sie noch einen Schritt weiter und testen Karbon.
Mit Karbon können Sie vollständige Kubernetes-Cluster innerhalb der Nutanix-Plattform automatisiert ausrollen. Sind Sie auch an selbstentwickelter Automatisierung interessiert, gibt es noch das große Feld der Programmierung mittels acli, ncli, RestAPI oder der PowerShell, für die natürlich auch entsprechende Commlets von Nutanix bereitstehen. Wie Sie sehen, können Sie mit der Nutanix-Community-Edition jede Menge Erfahrungen bezüglich der Lösungen des Herstellers sammeln.
Startup und Shutdown eines Nutanix-CE-One-Node-Clusters
Zum guten Schluss gehen wir noch auf das Ein- und Ausschalten eines CE-Single-Node-Clusters ein. Nach der Installation läuft der Cluster und Sie möchten ihn eventuell herunter- und später wieder hochfahren. Beenden Sie zunächst Ihre sämtlichen Workloads sowie das Prism Central. Wenn Sie einen Shutdown nicht über Ihren Work-load selbst initiieren können, nutzen Sie beispielsweise die Prism-Element-UI unter "VM" im "Home-Menü", um den Power-Zustand einer VM zu ändern.
Nachdem das erledigt ist, fahren Sie die CVM herunter. Dazu gehen Sie auf die CLI der CVM und geben cvm_shutdown ein. Die CVM ist heruntergefahren, wenn Sie automatisch abgemeldet wurden. Gehen Sie nun auf die CLI des AHV und geben poweroff ein. Warten Sie, bis der NUC vom System her vollständig ausgeschaltet wurde.
Schalten Sie für den Startup den NUC ein und warten Sie, bis Sie die Prism-Element-UI unter "https://<IP-Adresse der CVM>:9440" erreichen können. Das kann je nach Hardware durchaus einige Minuten dauern.
Fazit
Mal eben einen Cluster aufsetzen – mit der Nutanix-Community-Edition ist das kein Problem. Die freie Version eignet sich vor allen Dingen, um die Umgebung auszutesten und die ersten Gehversuche darin zu unternehmen. Soll der Cluster in Produktionsumgebungen bereitstehen, sollten Sie auf die Vollversion zurückgreifen. In beiden Varianten zeigt sich Nutanix als einfach zu bedienen und flexibel.