Mit der Community-Edition 2.0 von Nutanix eine private Cloud ausrollen
Testwolke
von Günter Baumgart
Veröffentlicht in Ausgabe 06/2023 - PRAXIS
Mit Version 2.0 seiner Community-Edition macht es Nutanix noch einfacher, eine Testumgebung aufzubauen oder einen Proof-of-Concept durchzuführen. Die freie Variante der lokalen Cloud unterscheidet sich kaum noch von den kommerziellen Versionen. Wir zeigen die Neuerungen und richten die Community-Edition in einer Testumgebung ein.
Erstellen Sie sich im ersten Schritt ein Konto bei Nutanix, den sogenannten "NEXT-Account" unter [1]. Nachdem Sie den Registrierungsprozess durchlaufen haben und über Ihren persönlichen Nutanix-Next-Zugang verfügen, haben Sie nun die Möglichkeit, sich unter [2] einzuloggen. Anschließend präsentiert sich Ihnen ein Dashboard, das die verfügbaren Services anzeigt, eingeteilt in die einzelnen Rubriken "Sales and Partner Services", "Cloud Services", "Administration" und "Support and Community". In der letzten Rubrik finden Sie die Kachel "Community Edition". Ein Klick darauf führt Sie zur Download-Page. Folgen Sie auf dieser Seite nun den einzelnen Links, um Binaries, entsprechende Erläuterungen oder die Dokumentation zur Community-Edition 2.0 herunterzuladen.
In der Oktober-Ausgabe 2021 des IT-Administrator haben wir die Community-Edition (CE) in einer der Vorgängerversionen bereits vorgestellt [3]. Dieser Artikel beschreibt vieles, was trotz der Neuerungen in dieser Version nach wie vor Gültigkeit besitzt. Es schadet also nicht, sich diesen Praxis-Artikel nochmals anzuschauen.
Unterschiede zu bisherigen Versionen
Und wie damals auch, darf die kostenlose Version der "Nutanix Enterprise Cloud Platform", also die Nutanix-Community-Edition, auch heute ausschließlich zu Testzwecken eingesetzt werden. Im Gegensatz zu damals handelt es sich heute um eine kostenlose Vollversion, mit der allerdings ein produktiver Einsatz keinesfalls gestattet ist. Sie richtet sich in erster Linie an alle, die die Funktionen des Hypervisors, Software-defined Storage und des Cloud-Betriebssystems (AOS) von Nutanix im eigenen Lab testen und den Umgang mit dieser Technologie erlernen möchten.
Erstellen Sie sich im ersten Schritt ein Konto bei Nutanix, den sogenannten "NEXT-Account" unter [1]. Nachdem Sie den Registrierungsprozess durchlaufen haben und über Ihren persönlichen Nutanix-Next-Zugang verfügen, haben Sie nun die Möglichkeit, sich unter [2] einzuloggen. Anschließend präsentiert sich Ihnen ein Dashboard, das die verfügbaren Services anzeigt, eingeteilt in die einzelnen Rubriken "Sales and Partner Services", "Cloud Services", "Administration" und "Support and Community". In der letzten Rubrik finden Sie die Kachel "Community Edition". Ein Klick darauf führt Sie zur Download-Page. Folgen Sie auf dieser Seite nun den einzelnen Links, um Binaries, entsprechende Erläuterungen oder die Dokumentation zur Community-Edition 2.0 herunterzuladen.
In der Oktober-Ausgabe 2021 des IT-Administrator haben wir die Community-Edition (CE) in einer der Vorgängerversionen bereits vorgestellt [3]. Dieser Artikel beschreibt vieles, was trotz der Neuerungen in dieser Version nach wie vor Gültigkeit besitzt. Es schadet also nicht, sich diesen Praxis-Artikel nochmals anzuschauen.
Unterschiede zu bisherigen Versionen
Und wie damals auch, darf die kostenlose Version der "Nutanix Enterprise Cloud Platform", also die Nutanix-Community-Edition, auch heute ausschließlich zu Testzwecken eingesetzt werden. Im Gegensatz zu damals handelt es sich heute um eine kostenlose Vollversion, mit der allerdings ein produktiver Einsatz keinesfalls gestattet ist. Sie richtet sich in erster Linie an alle, die die Funktionen des Hypervisors, Software-defined Storage und des Cloud-Betriebssystems (AOS) von Nutanix im eigenen Lab testen und den Umgang mit dieser Technologie erlernen möchten.
Wie Sie sehen, wird hier auch bereits die erste Abweichung von der Enterprise-Variante deutlich. Die neue Community-Edition unterstützt derzeit noch keinen Nicht-Nutanix-Hypervisor. Sie können die Community-Edition daher ausschließlich in Verbindung mit dem Nutanix-eigenen Hypervisor AHV installieren und testen. Eine Nutzung des ESXi-Hypervisors von VMware ist also nicht vorgesehen. Das ist aktuell nur der kommerziellen Version vorbehalten, und Microsoft Hyper-V ist noch nie in einer der Community-Editionen unterstützt worden. Dieser Hypervisor lässt sich ebenfalls nur innerhalb der kommerziellen Enterprise-Version betreiben.
An dieser Stelle nun eine kurze Bemerkung zur Vorsicht bei der Installation, auf die wir später noch genauer eingehen: Im Zuge des Installationsprozesses entsteht sehr schnell der Eindruck, dass sich der ESXi installieren lassen würde. Seien Sie sich aber bewusst, dass dies in der Community-Edition nicht unterstützt ist. Nachlesen können Sie dies auch in der Dokumentation zur Community-Edition.
Die Vorgängerversion 5.18 bestand aus Hypervisor, Software-defined Storage, Cluster-Management (Prism Element) und Multi-Cluster-Management (Prism Central). In der Community-Edition 2.0 hingegen gibt es kein dediziertes Prism Central mehr. Wir zeigen aber später, wie es sich in die Community-Edition einspielen lässt. Möchten Sie mehrere CE-Cluster mittels Prism Central verwalten, können Sie dies allerdings mit Prism Central aus der Nutanix-Enterprise-Welt abdecken. Haben Sie bereits Prism Central im Einsatz, können Sie auch Ihren CE-Cluster darüber verwalten.
Dank Life Cycle Manager stets aktuell
Dass der Funktionsabstand zwischen CE 2.0 und der kommerziellen Enterprise-Version so deutlich geschrumpft ist wie noch nie, ist auch etwas völlig Neues. Damit die Schwelle zwischen der Community- und der Produktions-Version dauerhaft gering bleibt, ist es natürlich notwendig, sämtliche Aktualisierungen der Enterprise-Version zeitgleich auch in der Community-Edition vorzunehmen. Downloaden Sie die aktuelle Community-Edition, erkennen Sie an der Bezeichnung des heruntergeladenen Images "phoenix-ce2.0-fraser-6.5.2-stable-fnd-5.3.4-x86_64.iso", dass es sich um die Nutanix-LTS-Version 6.5.2 handelt. Diese enthält neben dem Funktionsumfang der Produktionsversion 6.5.2 von Januar 2023 auch den "Life Cycle Manager" (LCM). Darüber wird nun die CE in regelmäßigen Abständen aktualisiert. Das Warten auf die nächste CE entfällt also mit sofortiger Wirkung.
Hier einmal beispielhaft ein zeitlicher Verlauf, wie sich ein CE-Cluster mittels LCM weiterentwickelt: Nehmen wir an, Sie hätten Ihren CE-Cluster in der ersten Märzwoche 2023 installiert. In der zweiten Woche stellen Sie nun via Life Cycle Manager fest, dass ein neues AOS in der Version 6.5.2.5 zur Verfügung steht, das Sie dann sofort updaten lassen. In der darauffolgenden Woche steht erfreulicherweise die Version 6.5.2.6 zur Installation bereit, die Sie dann vom LCM ebenfalls aktualisieren lassen können. Das bedeutet, dass Ihre Community-Edition mit dem AOS-Enterprise von Nutanix gleichzieht und somit einen identischen Release-Zyklus aufweist. Sie testen also immer auch den aktuellen Funktionsumfang der neuesten Nutanix-HCI.
Innerhalb des AOS gibt es noch weitere Komponenten, die Sie kennen sollten, zumal diese mittels des bereits erwähnten Update-Prozesses durch den LCM in unterschiedlicher Häufigkeit ebenfalls aktualisiert werden. Die Rede ist hierbei im Wesentlichen vom Nutanix Cluster Check, der Foundation und den Cluster Maintenance Utilities. Eine Übersicht sämtlicher durch LCM aktualisierten Pakete finden Sie beispielsweise in Prism Element oder in Prism Central unter dem Menüpunkt "LCM".
Testen Sie die HCI-Plattform nicht ausschließlich als Hosting-Plattform für Ihre Workloads, übernimmt LCM auch die Aktualisierung weiterer zusätzlicher Softwarekomponenten von Nutanix. Das heißt, auch Nutanix-Objects, S3-Storage oder Files, NFS- und CIFS-Fileserver werden via LCM auf dem aktuellen Stand gehalten. Gleiches gilt auch für Flow Network Security, die Nutanix Kubernetes Engine oder Application Lifecycle Automation beziehungsweise die Nutanix Self Services. Das bedeutet, dass alle Produkte von Nutanix mit einem Testzeitraum sich auch mit der CE testen lassen.
Cluster-Größen in CE beschränkt
Für diejenigen, die noch keine Erfahrung mit der Nutanix-Cloudplattform haben, eine ganz kurze Einführung in das Thema. Grundsätzlich bringt die CE zwei Komponenten auf die Plattform, den Hypervisor und die Controller Virtual Machine (CVM). Die Rolle des Hypervisors ist selbsterklärend und die CVM ist für alles andere zuständig, was eine hyperkonvergente Infrastruktur (HCI) ausmacht: unter anderem die Bereitstellung von Software-defined Storage, in dem Daten, Workloads und Images gespeichert werden.
Da es sich bei einer einzelnen HCI um einen aus dedizierten Nodes bestehenden Cluster handelt, läuft auf jeder Node ein Hypervisor nebst CVM. Alle CVMs in einem Cluster kommunizieren im Betrieb miteinander und bilden quasi von außen betrachtet eine Einheit. Das ist das sogenannte Cloud-Betriebssystem, kurz AOS. Im Gegensatz zur Enterprise-Edition unterstützt die CE nur die Möglichkeit, den Cluster mit einer, drei oder vier Nodes zu testen. Alle weiteren Cluster-Kombinationen sind der Production- beziehungsweise Enterprise-Version vorbehalten.
Erste Schritte zur Testumgebung
Nun wollen wir mit der Community-Edition eine virtuelle Infrastruktur aufbauen. Gerade für erste Gehversuche ist eine Nested-Umgebung gut geeignet, da Sie so die Möglichkeit haben, Snapshots zu erstellen und sich somit auch problemlos an den einen oder anderen Test wagen können, der sich je nach Resultat schnell wieder ungeschehen machen lässt. Aber selbstverständlich können Sie die CE auch direkt auf der Hardware installieren. In unserer Testumgebung läuft ein ESXi-8-Host auf einer Intel-Architektur, die somit die Basis für unsere Nested-CE darstellt. Sie können aber auch problemlos auf eine AMD-Basis setzen.
Unser Ziel ist der Aufbau eines virtualisierten CE-Single-Node-Clusters (im Folgenden als SNC bezeichnet). Haben Sie allerdings jede Menge Ressourcen zur Verfügung und möchten einen Drei-Node-Cluster aufbauen, dann erstellen Sie das, was gleich kommt, einfach dreimal. Also drei separate Workloads nach dem folgenden Vorbild.
Sorgen Sie in jedem Fall dafür, dass der SNC-Workload einen Zugang zum Internet hat. Ansonsten werden Sie im Verlauf der Installation aufgefordert, dass Sie Ihren Cluster mit Ihrem Next-Account registrieren. Auch der automatisierte Call-Home-Mechanismus "Pulse" von Nutanix, der Cluster-Warnungen und Nutzungsstatistiken an Nutanix sendet, erfordert eine Internetverbindung. Steht die Verbindung ins Internet, wird der Cluster während der Erstellung automatisch so konfiguriert, dass als Name-Server "8.8.8.8" und "8.8.4.4", also zwei öffentliche DNS-Adressen von Google, erscheinen. Weiter sehen Sie in den Einstellungen in Prism Element nach der Installation unter "Zeit-Server", dass der Cluster als NTP-Quelle "pool.ntp.org" nutzt. Diese gehört einem Pool von Community-basierten Zeitquellen an und sollte nur für Testzwecke zum Einsatz kommen; für Produktionsumgebungen sind diese nicht zuverlässig genug.
Für Funktionstests reicht die Performance der Community-Edition aus, vorausgesetzt, dass Sie genügend CPU-Leistung, Arbeitsspeicher und Netzwerkbandbreite zur Verfügung stellen. Damit die Anzahl der Test-VMs auch nicht zu gering ausfallen muss, setzten Sie am besten auf minimalistisch ausgestattete Workloads. Hier bietet es sich zum Beispiel an, mit "Ubuntu 18.04 LTS mini.iso" [4] recht sparsame VMs zu bauen, mit denen Sie dann Ihre Tests fahren.
Haben Sie allerdings vor, Performancetests durchzuführen, ist dieser Aufbau nicht der richtige Weg. Planen Sie Derartiges, dann sollten Sie wirklich nicht auf die Nested-Variante setzen, sondern alles physisch aufbauen. Bedenken Sie dabei jedoch, dass die CE nicht alle Mechanismen der Enterprise-Version enthält, die speziell der Steigerung der Performance dienen. Das heißt, dass sich die Workloads in der Produktions- und Enterprise-Version in einer um ein Vielfaches leistungsfähigeren Umgebung befinden. Das bedeutet im Umkehrschluss aber auch, dass wenn Sie am Ende mit den Testergebnissen der CE zufrieden sind, sich die Leistung in der Produktionsversion dann noch deutlich verbessert.
Installation der Umgebung
Verbinden Sie sich nun mit Ihrem ESXi-Host-Client und erstellen Sie eine neue VM. Wir geben ihr den Namen "AHV@ CE20-01" und statten sie wie folgt aus: Als "Guest OS" nutzen wir CentOS 7 (64 Bit), teilen vier vCPUs zu und aktivieren die hardwaregestützte Virtualisierung, geben der VM 32 GByte vRAM und legen fünf vDisks an. Dabei hat die erste Disk 32 GByte Platz, die anderen vier jeweils 300 GByte und alle fünf sind thin-provisioned. Für "vNIC" 1 und 2 setzen Sie unter den Einstellungen der Portgruppe (Edit port group) sämtliche Sicherheitseinstellungen (Security) auf "Akzeptieren" (Accept). Schließlich definieren Sie für "CD/DVD-vDrive 1" den Eintrag "phoenix-ce2.0-fraser-6.5.2-stable-fnd-5.3.4-x86_64.iso".
Haben Sie das erledigt, schalten Sie die VM ein und öffnen die VM-Konsole, um den jetzt beginnenden Installationsprozess zu beobachten. Die Installation kann, je nachdem wie performant Ihre Infrastruktur ist, einige Zeit in Anspruch nehmen. Haben Sie nun etwas Geduld und warten so lange, bis der Installationsvorgang eine Eingabemaske (Bild 1) anzeigt.
Bild 1: Nach der Installation sind noch die IP-Adressen für Hypervisor und CVM, die Subnetzmaske und das Gateway anzulegen.
In der Regel können Sie sich darauf verlassen, dass der Installationsprozess die richtige Auswahl des Hypervisors und die korrekte Zuordnung der vorhandenen vDisks vornimmt. Lediglich die Host-IP-Adresse für den AHV, also den Hypervisor von Nutanix, die IP-Adresse der CVM, die passende Subnetz-Maske und das Default-Gateway müssen Sie noch ergänzen. Mittels "Create a single-node Cluster" besteht die Möglichkeit, den Cluster auch automatisiert durch den Installationsprozess erstellen zu lassen. Für unser Beispiel wäre das auch völlig in Ordnung, für einen 3-Node-Cluster hingegen nicht, denn dann erzeugen Sie drei einzelne Workloads, die hinterher zu einem Clusterverbund zusammengefügt werden. Das müssen Sie in diesem Fall mit dem cluster-create-Befehl einer der drei CVMs umsetzen. Wie das genau funktioniert, zeigen wir später. Mehr Kommandos für die Verwaltung eines Clusters liefern [5, 6] und die Tabelle "Wichtige Befehle" zeigt die wichtigsten im Überblick. Eine weitere nützliche Quelle ist die Eingabe von ncli oder acli im CVM-CLI. Mit der TAB-Taste navigieren Sie dort durch die einzelnen Command-Referenzen.
Doch nun zurück zur Installation und der Eingabemaske. Verwenden Sie die TAB- oder Pfeiltasten, um sich innerhalb der Konfigurationspunkte zwischen den Feldern zu bewegen. Bestätigen Sie am Ende Ihre Eingaben, so wie in Bild 1 zu sehen ist, indem Sie "Next Page" wählen. Mit der Return-Taste gelangen Sie dann zum "End User License Agreement", das Sie akzeptieren müssen. Hierzu lesen Sie die Bestimmungen bis zum Ende durch. Haben Sie nicht bis zum Ende durchgescrollt, geht es hier nicht weiter. Abschließend steuern Sie mit der TAB-Taste "Start" an und starten mit der Return-Taste die Installation.
Sie können nun anhand der Ausgaben auf der Konsole den gesamten Installationsvorgang auf dem Monitor mitverfolgen. Am Ende werden Sie aufgefordert, das Installationsmedium herauszunehmen und die VM durchzustarten. Nachdem Sie den Forderungen auf dem Bildschirm nachgekommen sind und den Neustart durch Eingabe von "Y" ausgelöst haben, startet das System, indem es zuerst den AHV und anschließend dann die CVM hochfährt.
Jetzt müssen Sie den Single-Node-Cluster erstellen. Da dies manuell erfolgen soll, verbinden Sie sich nun also mittels SSH von Ihrem Terminal aus mit der CVM via ssh nutanix@<CVM-IP-Adresse> und geben den Befehl
ein. Dann heißt es abwarten, bis das System den Cluster erstellt und alle Services hochgefahren hat. Dass dieser Vorgang abgeschlossen ist, sehen Sie daran, dass sämtliche Prozesse laufen und "Success!" an der Konsole ausgegeben wird.
Erreichbarkeit von Hypervisor- und CVM-Konsole
Um auf die CLI des AHV und der CVM via SSH zuzugreifen, stehen Ihnen verschiedene Wege offen. Vom Terminal Ihres Managementcomputers erreichen Sie AHV via ssh root@<AHV-IP-Adresse> und den CVM mittels ssh nutanix@<CVM-IP-Adresse>. Und auf dem CLI der CVM gelangen Sie zu AHV durch ssh root@<AHV-IP-Adresse> und umgekehrt von AHV zu CVM mittels ssh nutanix@<CVM-IP-Adresse>.Das Design der Nutanix-Plattform basiert darauf, dass jeder Node innerhalb eines Clusters das Netzwerk "192.168.5.0/24" für die intermediäre Kommunikation von CVM und Hypervisor nutzt. Realisiert wird dies mittels internem virtuellem Switch. Dieser Switch hat also keine Verbindung mit physischen Ports und somit auch keinerlei Kontakt mit externen Netzwerken. Pakete aus dem 192.168.5.0-Netz gelangen also niemals in externe Netzwerke. Somit führt der Weg im CLI des AHV zu CVM über ssh nutanix@ 192.168.5.2 und andersherum über ssh root@192.168.5.1.
Grundkonfiguration des Clusters
Da Sie sich bereits via SSH im CLI der CVM befinden, können Sie hier auch die Basiskonfigurationen anstatt in der GUI vornehmen. Das beinhaltet bei unserem Single-Node-Cluster die Vergabe eines Namens. Benutzen Sie hierfür einfach den Befehl
Auf das Thema Proxy-Server gehen wir in diesem Zusammenhang nicht ein, der "Getting Started Guide" [7] liefert dazu aber alles, was Sie benötigen.
Nun hat der Cluster einen Namen, eine IP-Adresse und der Prism-Service läuft. Wechseln Sie nun zur Prism-UI und registrieren sich mit Ihrem NEXT-Account. Gehen Sie dazu in den Browser und geben "https://<IP-Adresse der CVM oder des Clusters>: 9440/" als URL an. Die Verbindung zum CVM-Prozess und Prism wird nun aufgebaut und es erscheint die Landing-Page von Prism Element.
Die erste Anmeldung (Tabelle "Standard-Benutzernamen und -Passwörter") erfolgt mit "admin" und dem Passwort "nutanix /4u". Das UI erwartet nun die Eingabe eines neuen Passwortes. Anschließend muss die Anmeldung dann nochmals mit dem User "admin" und Ihrem neuen Passwort erfolgen. Im nächsten Schritt fordert Sie Prism Element zur Eingabe des NEXT-Accounts auf. Ist dies erledigt, erscheint das Cluster-Management.
St
andard-Benutzernamen und -Passwörter
Controller-VM
SSH
nutanix
nutanix/4u
AHV
SSH
root
nutanix/4u
ESXi
SSH
root
nutanix/4u
Prism Element
HTTPS (Port: 9440)
admin
nutanix/4u
Prism Central
HTTPS (Port: 9440)
admin
nutanix/4u
Schließen Sie nun die Erstkonfiguration Ihres Clusters dadurch ab, dass Sie noch ein Subnetz für die Workloads erstellen. In der Prism-Central-UI klicken Sie auf das Zahnradsymbol oben in der rechten Ecke, um in die Settings zu gelangen, und erstellen Sie über "Network Configuration" und "Create Network" ein neues Netzwerk. Für den Netzwerknamen können Sie beispielsweise "VLAN.0" verwenden. Tragen Sie dann als VLAN-ID die "0" ein. Spätestens an dieser Stelle empfehlen wir Ihnen, noch einen genauen Blick in den "Prism Web Console Guide" [8] zu werfen; und eine kurze Demo zur Einführung in Prism Element finden Sie unter [9].
Den richtigen Faktor setzen
Mit der folgenden Eingabe im CLI der CVM konfigurieren Sie, mit welchem "Faktor" Sie Ihren Cluster erstellen:
cluster -s <CVM-IP-Adresse> --redundancy_factor=<1 oder 2> create
Der Faktor "1" verursacht im Prism-Element-UI unter "Data Resiliency Status" die Meldung "Configuration supports no Disk resiliency". Was klar ist, da keinerlei Blockredundanz im System vorhanden ist und deshalb auch möglichst nichts ausfallen sollte.
Aber es gibt nicht wenige Anwendungsfälle, bei denen das eine durchaus sinnvolle Konfiguration ist. Denken Sie hier etwa an Anwendungen, bei denen die Resilienz der App über mehrere Nodes hinweg realisiert wird. Dann vermeiden Sie mit "RF=1" mehrfache beziehungsweise unnötige Redundanz im System und sparen Speicherplatz. In unserem Beispiel ist das allerdings nicht geplant und deshalb erstellen wir den Cluster mit RF=2. Für einen 3- oder 4-Node-Cluster gehen Sie wie folgt vor:
cluster -s <IP-Adresse der CVM-1>, <IP-Adresse der CVM-2>, <IP-Adresse der CVM-3> -- redundancy_factor=2 create
Natürlich können Sie auch in der UI von Prism Element (Bild 2) nachschauen, welcher Faktor in Ihrem Cluster gültig ist. Das wird zum einen unter "Storage Container" für jeden einzelnen vStorage-Container angezeigt oder Sie schauen in den Settings unter "Data Resilliency" und "Redundancy State" nach. Um das im CLI der CVM nachzuprüfen, nutzen Sie ncli ctr ls. Hier können Sie ebenfalls sehen, welcher Faktor in Ihrem Cluster gilt.
Bild 2: Die Startseite von Prism Element liefert zahlreiche Zustandsinformationen.
Installieren der VMware-Tools
Zuerst klicken Sie in der AHV-VM im Menü "Aktionen" den Eintrag "Gastbetriebssystem" und wählen dann den Punkt "VMware Tools installieren" aus. Dadurch wird das VMware-Tools-Image mit dem CD/DVD-Laufwerk der VM verbunden. Gehen Sie jetzt auf das CLI des AHV mittels ssh root@<IP-Adresse des AHV> und mounten das CD-ROM im AHV via mount /dev/cdrom /mnt/. Lassen Sie sich nun mit ls /mnt/ -l den Inhalt der CD-ROM auflisten. Entpacken Sie als Nächstes das komprimierte TAR-Archiv mittels tar zxvf /mnt/VMwareTools-10.3.25-20206839.tar.gz. Wechseln Sie nun mit cd vmware-tools-distrib/ in das Verzeichnis "/vmware-tools-distrib/" und checken mit ls -l, ob der Link zum Pearl-Installationsskript "vmware-install.pl" vorhanden ist. Ist das der Fall, führen Sie nun das Skript mit ./vmware-install.pl --default aus. Im Anschluss daran schauen Sie mit /etc/init.d/vmware-tools status im CLI nach, ob die Tools auch ordnungsgemäß laufen.
Prism Central einrichten
Nun gilt es, Prism Central in der UI von Prism Element zu deployen. Dazu benötigen Sie jedoch mehr Compute-Leistung in Ihrem Workload, denn Prism Central erfordert in der Small-Konfiguration sechs vCPUs und 26 GByte RAM [10]. Das bedeutet, dass Sie nun den Workload mit sechs vCPUs und mindestens 58 GByte bestücken.
Die Installation von Prism Central ist kein Hexenwerk und geht in wenigen Schritten vonstatten. Aber bevor es losgeht, versichern Sie sich noch einmal, ob Sie dem Workload auch wirklich die benötigten Ressourcen bereitgestellt haben. Sollte das nämlich nicht der Fall sein, merken Sie das erst, nachdem der Vorgang vollständig durchgelaufen ist, daran, dass sich Prism Central nicht automatisch einschaltet und Sie eine Fehlermeldung bekommen.
Melden Sie sich jetzt an der Prism-Element-Oberfläche an. Oben links sehen Sie im Browser eine Kachel mit der Überschrift "Prism Central". Klicken Sie auf den Link "Register or create new". Jetzt öffnet sich ein Formular, in dem Sie auswählen können, ob Sie lieber ein Deployment oder eine Registrierung vornehmen möchten – wir wählen Ersteres. Gegenüber der alten Community-Edition richten Sie hier eine Version von Prism Central ein, die zum Enterprise-Portfolio von Nutanix gehört. Nachdem Sie nun den Dialog durchlaufen haben und alle vom System benötigten Daten, wie IP-Adresse, die Verwaltungsgrößenordnung, DNS, Gateway, Subnet-Maske hinterlegt haben, klicken Sie auf "Deploy".
Ist der Installationsvorgang abgeschlossen, melden Sie sich via "https://<IP-Adresse Prism Central>:9440" und mit "admin" und "Nutanix/4u" an. Nach der EULA folgt die Registrierung Ihres Clusters in Prism Central. Gehen Sie nun zurück in Ihr Prism Element (https://<IP-Adresse der CVM oder des Clusters>:9440), klicken Sie erneut auf den Link "Register or create new" und wählen Sie dann "Connect" aus. Es erscheint eine Info-Box und nach einem Klick auf "Next" geben Sie die IP-Adresse, den Anmeldenamen und das Passwort von Prism Central ein. Dann noch ein Klick auf "Connect" und Ihr Community-Edition-Cluster wird registriert (Bild 3).
Bild 3: Der Community-Edition-Cluster lässt sich nun auch via Prism Central verwalten.
Steht Prism Central zur Verfügung, haben Sie Zugriff auf zahlreiche Dienste: den skalierbaren File-Server, den ebenfalls skalierbaren Object/S3-Storage und die Microsegmentierung mit "Flow". Auch Automatisierung von Workloads oder Arbeitsprozessen mit "Nutanix Self Services" und die "Nutanix Kubernetes Engine" stehen jetzt bereit.
Startup und Shutdown des Single-Node-Clusters
Produktionsumgebungen laufen ja eigentlich immer, aber im Labor ist das oftmals etwas anderes. Deshalb zum Schluss nochmal ganz kurz das Ein- und Ausschalten eines Community-Edition-Clusters.
Für einen Shutdown fahren Sie zunächst sämtliche Workloads sowie Ihr Prism Central, falls vorhanden, herunter. Wenn Sie einen Shutdown nicht über Ihren Workload selbst initiieren, nutzen Sie einfach die Prism-Element-UI unter "VM" im Home-Menü dafür, den Power-Zustand einer VM zu ändern. Nachdem das erledigt ist, fahren Sie die CVM herunter. Dazu gehen Sie auf die CLI der CVM und beenden den Cluster mittels cluster stop. Ist das geschehen, geben Sie cvm_shutdown -P now ein. Die CVM ist heruntergefahren, wenn Sie automatisch ausgeloggt werden. Schauen Sie nochmal zur Sicherheit nach, ob die CVM auch wirklich aus ist. Geben Sie dazu virsh list --all im CLI des AHV ein. Die Ausgabe zeigt nun an, ob die CVM ausgeschaltet ist ("state: shut off"). Ist dies der Fall, geben Sie shutdown -h now ein und der AHV schaltet sich ebenfalls ab.
Für ein Wiederanfahren starten Sie die VM und warten, bis Sie sich via SSH an der CVM anmelden können. Nach der Anmeldung am CLI geben Sie gs ein und warten ebenfalls so lange, bis Sie in der Ausgabe sehen, dass die genesis- und zookepper-Prozesse laufen. Jetzt können Sie cluster start eingeben. Als Nächstes sehen Sie an den Ausgaben, dass der Cluster vom System gestartet wird. Dass er läuft und Sie sich an der UI anmelden können, erkennen Sie daran, dass alle Prozesse laufen und die Sucess-Meldung am Ende der Ausgabe steht. Wechseln Sie nun in den Browser, geben https://<IP-Adresse der CVM oder des Clusters>:9440 ein und die Prism-Element-UI erscheint mit der Anmeldeseite.
Fazit
Es ist überhaupt kein Thema, schnell mal eben einen Cluster mit der neuen Nutanix-Community-Edition anzulegen, einzurichten und dann zu testen. Erste Gehversuche sind sicherlich nach wie vor das vorrangige Ziel der CE. Dass diese sich nun zusammen mit den Enterprise-Plattformen verwalten lässt, ist für all Testumgebungen sicherlich eine gute Sache. Dass die neue Community-Edition kaum noch Unterschiede zur Produktionsversion aufweist und sich auch via Life Cycle Manager updaten und dadurch auf dem neuesten Stand halten lässt, ist ein ebenso hilfreiches Feature.