Oft steht IT-Verantwortlichen im Unternehmen kein Equipment zur Verfügung, mit dem sie neue Software testen können. Und auch die eigene Fortbildung durch Einarbeitung in eine neue Anwendung auf produktiven Servern ist selten gern gesehen. Zu diesem Zweck ausgediente Server in einen Abstellraum zu verfrachten ist eine Option, doch leistungsstarke Kleinrechner und kostenlose Virtualisierung machen eine Testumgebung selbst zuhause möglich. Unser zweiteiliger Workshop betrachtet passende Hard- und Software.
Die großen, lauten und leistungsfähigen Serversysteme, die Administratoren tagtäglich betreuen, stehen und arbeiten im Rechenzentrum. Eine zu jeder Zeit stabile Klimatisierung, eine doppelte Energieversorgung, redundante Netzwerkanbindung und Integration in diverse Überwachungs- und Monitoringsysteme sorgen für einen stets reibungslosen Betrieb.
Für kleinere Testvorhaben mit wenigen Benutzern oder Teststellungen für konkrete Projekte in der heimischen Umgebung ist ein solches Szenario vollkommen undenkbar. Ein ausgewachsener HP-ProLiant-Server im klassischen Rack-Design bietet eine solch "bezaubernde" Geräuschkulisse, dass seine Verwendung im Privathaushalt oder im Büro im Dauerbetrieb undenkbar ist. Glücklicherweise bieten viele Hersteller auch Tower-Varianten ihrer Server an, die in Bezug auf die Geräuschentwicklung schon deutlich leiser sind. Aber es geht auch noch kleiner und leiser.
Nicht jede Hardware eignet sich
Es liegt also nahe, auf einen der so genannten "Tiny"- und "Mini"-Microcomputer, die in erster Linie für den Desktop-Betrieb gebaut sind, zurückzugreifen. Diese Rechner sind teilweise mit Komponenten ausgestattet, die auch bei Notebooks zum Einsatz kommen, und erfüllen die eingangs genannten Kriterien allesamt. Sie sind in der Tat sehr leise, brauchen kaum Platz und sind für bestimmte Vorhaben bestens geeignet.
Die großen, lauten und leistungsfähigen Serversysteme, die Administratoren tagtäglich betreuen, stehen und arbeiten im Rechenzentrum. Eine zu jeder Zeit stabile Klimatisierung, eine doppelte Energieversorgung, redundante Netzwerkanbindung und Integration in diverse Überwachungs- und Monitoringsysteme sorgen für einen stets reibungslosen Betrieb.
Für kleinere Testvorhaben mit wenigen Benutzern oder Teststellungen für konkrete Projekte in der heimischen Umgebung ist ein solches Szenario vollkommen undenkbar. Ein ausgewachsener HP-ProLiant-Server im klassischen Rack-Design bietet eine solch "bezaubernde" Geräuschkulisse, dass seine Verwendung im Privathaushalt oder im Büro im Dauerbetrieb undenkbar ist. Glücklicherweise bieten viele Hersteller auch Tower-Varianten ihrer Server an, die in Bezug auf die Geräuschentwicklung schon deutlich leiser sind. Aber es geht auch noch kleiner und leiser.
Nicht jede Hardware eignet sich
Es liegt also nahe, auf einen der so genannten "Tiny"- und "Mini"-Microcomputer, die in erster Linie für den Desktop-Betrieb gebaut sind, zurückzugreifen. Diese Rechner sind teilweise mit Komponenten ausgestattet, die auch bei Notebooks zum Einsatz kommen, und erfüllen die eingangs genannten Kriterien allesamt. Sie sind in der Tat sehr leise, brauchen kaum Platz und sind für bestimmte Vorhaben bestens geeignet.
Es gilt jedoch zu bedenken, dass Desktop- und Servercomputer ähnlich funktionieren, sich jedoch in vielerlei Hinsicht unterscheiden. Ein kleiner Desktop-PC ist nicht für den dauerhaften 24/7-Betrieb optimiert, alle Komponenten hat der Hersteller für eine täglich zu erwartende Dauerarbeitszeit von rund zehn Stunden ausgewählt. Doppelte Netzteile mit redundanter Stromversorgung, Hot-Plugging-fähige Festplatten oder gar ECC-RAM-Bausteine und eine große Zahl an Gerätelüftern, die der Administrator im laufenden Betrieb austauschen könnte – all dies gibt es bei den kleinen Computern in der Regel nicht. Diese Eigenschaften sind nicht vorhanden, da der Markt danach nicht verlangt.
An sich gibt es eine ziemlich einfache Regel, was die Leistungsfähigkeit und den Preis angeht: Mini-Computer, die es für einen ganz kleinen Preis gibt, bieten auch nur sehr geringe Leistung. Häufig kommen bei diesen Systemen CPUs zum Einsatz, die ursprünglich für den Tablet-Betrieb entwickelt wurden. Sie sind äußerst sparsam, doch bei ansprechend hoher Taktfrequenz eher leistungsschwach. Was Intel mit den Handelsbezeichnungen Celeron N, Pentium Silver oder Celeron J vermarktet, ist der Intel-Atom-Kern, der als Bolide für den serverartigen Dauerbetrieb eher ungeeignet ist. Systeme mit Pentium-Gold- oder Celeron-G-CPU sind zwar leistungsfähiger, bringen jedoch meist nur eine überschaubare Erweiterbarkeit mit sich. Nicht selten sieht der Board- oder Systemhersteller lediglich 8 GByte RAM vor – was den Rechner für Virtualisierungsvorhaben uninteressant macht.
Es gibt kleine Computersysteme – Stichwort ITX-Board-Größe – mit ordentlicher Leistung. Jedoch kosten voll ausgestattete ITX-Systeme in der Regel deutlich mehr in der Anschaffung als ein vergleichbares System mit ATX-Dimension.
Windows ist nicht gleich Windows
Bei der Betriebssystemauswahl gibt es zumeist auch Einschränkungen. Beinahe alle Desktop-PCs sind vom Hersteller für den Windows-10-Betrieb vorgesehen. Wer nun denkt, dass das Treibermodell von Windows 10 und den entsprechenden Server-Varianten doch identisch ist, wird beim Betrieb auf Minicomputern mitunter eines Besseren belehrt. Kostengünstige Kleinstcomputer beispielsweise der Marke Beelink kann der Benutzer nicht einfach mit Windows Server bespielen. Etliche Systemkomponenten werden nicht korrekt mit Treibern versorgt und schlussendlich resultiert das Vorhaben in einem instabilen System.
Damit sich Windows Server als Betriebssystem, und somit auch die Bare-Metal-Variante Hyper-V, ordnungsgemäß installieren lässt, ist eine passende Treiberversorgung unumgänglich. Die Kompatibilitätsliste von Microsoft spricht eine deutliche Sprache – nicht alles, was durch Windows 10 unterstützt ist, gibt es auch für die Servervariante. Schlussendlich gilt das natürlich auch für alle anderen Betriebssysteme. Die Suche nach dem passenden Treiber unter Linux kann leicht zu einer abenteuerlichen Reise mit unklarem Ausgang durch das Internet mutieren, zumindest wenn eher günstige Hardware zum Einsatz kommt.
Sofern es nur um kleinere Testinstallationen geht, kann der Administrator im Zweifelsfall auch mit PCs oder kleinen Servern arbeiten, die nicht explizit durch den Betriebssystemhersteller unterstützt sind. Für den Produktiveinsatz raten wir ausdrücklich von solchen Experimenten ab. Der Dauerbetrieb auf Servern setzt Stabilität voraus – und das erfordert auch das passende Zusammenspiel von Hard- und Software.
Desktop-PC mit Virtualisierung
Für Testinstallationen, die der Administrator möglicherweise auch einmal einige Tage in der Laborumgebung oder im heimischen Umfeld betreibt, ist die Desktopvirtualisierung von Virtual Box, Hyper-V oder VMware Workstation Pro beziehungsweise VMware Workstation Player die einfachste und schnellste Variante. Die eigentliche Hardware-Unterstützung betrifft den Host-Computer und der Server oder die gesamte Testumgebung residiert in der Virtualisierung.
Der Vorteil der Variante liegt auf der Hand, da keine zusätzliche Hardware erforderlich ist. Dieser Vorteil ist aber zugleich auch ein Nachteil, denn der Anwender hat keinen ungestörten Zugriff auf seinen eigenen PC, da die Virtualisierung stets im Hintergrund mitläuft. Ein Neustart wegen eines Betriebssystem-Updates des Host-Rechners wirkt sich nachteilig für die Umgebung aus. Die für das heimische Umfeld produzierten Windows-Versionen erlauben beispielweise gar keine wirksame Verhinderung des automatischen Neustarts nach Updates.
Ein Mac Mini von Apple ist bei dieser Sichtweise ein überaus attraktiver Kandidat. MacOS erzwingt keine Neustarts und mit Parallels beziehungsweise Fusion stehen zwei ausgereifte Virtualisierungsprogramme bereit, die einen temporären Serverbetrieb für Test- und Laborvorhaben unterstützen. Lediglich mit dem Plattenspeicher macht es Apple dem Interessenten nicht gerade leicht. Während der Benutzer den Hauptspeicher mit Spezialwerkzeug und Geduld in den Bereich von 32 GByte erweitern kann, gibt es keine austauschbaren SSDs mehr. Erst nach 2019 entschied sich das Unternehmen, wieder Speicher von mehr als 256 GByte zu verbauen. Dank externer USB3.0- oder Thunderbolt-Festplatten lässt sich das Speicherplatzproblem aber auch bei älteren Mac Minis beheben.
Eigenbau mit Einplatinencomputern
Nicht unerwähnt bleiben soll ein komplett anderer Bereich, der von manchen IT-Profis und Administratoren mit beinahe liebevoller Aufmerksamkeit bedacht wird. Die Rede ist von den Einplatinencomputern, die für ein Revival der an sich vom Markt verschwundenen Heimcomputer zum Programmieren und Experimentieren gesorgt haben. Der Schwerpunkt auf Lernen und Basteln ist dabei von hoher Bedeutung.
Der Raspberry Pi als Platzhirsch der Einplatinencomputer ist bereits mehr als 40 Millionen Mal verkauft worden und ist nunmehr der meistverkaufte britische Computer überhaupt. Anstelle der klassischen Massendatenträger setzt die Raspberry Pi Foundation auf einfache SD-Karten und verzichtet auch sonst auf alles, was nicht unbedingt erforderlich ist. Das Ziel ist ein möglichst kostengünstiger Computer, dessen Preis maximal 100 Euro beträgt.
Als Betriebssystem kommt in der Regel ein angepasstes Linux mit grafischer Oberfläche zum Einsatz. Dank HDMI- und USB-Anschlüssen sowie WLAN-Unterstützung ist die Integration in die eigene Umgebung denkbar einfach. Aufgebaut sind die Raspi-Systeme, von denen es mittlerweile zwölf Varianten gibt, auf der ARM-CPU-Architektur v6 bis v8 – seit 2016 kommt 64-Bit Arm v8 zum Einsatz mit vier CPU-Kernen und beim aktuellen Modell mit 1500 MHz Taktfrequenz.
Das ist ausreichend Leistung, um praxisnahe Aufgaben direkt auf dem System durchzuführen. Wer sich beispielsweise mit Python zur Ansteuerung von elektronischen Bauteilen auseinandersetzen möchte, kann Quellcode-Beispiele oder YouTube-Erklärvideos direkt auf einem Raspi anschauen, ohne wieder auf den eigentlichen Desktopcomputer zurückgreifen zu müssen. Die Einsatzgebiete und Möglichkeiten sind beinahe unbegrenzt und reichen über die Steuerung von Kameramodulen, Auslesen von Sensoren, Integration mit Steuerungsplatinen, komplette Heimautomation oder den Aufbau einer Wetterstation mit Daten-Logging und Abgleich von Quellen aus dem Internet.
Während der Raspi zu einem komplett ausgebauten Computer mit einem Desktopbetriebssystem werden kann, bleibt der deutlich kleinere (und günstigere) Arduino im Vergleich ein wahrer Zwerg. Der Chip, der die USB-Ansteuerung auf einem Arduino realisiert, hat sicherlich eine höhere Leistung als die CPU des Mikrocontrollers selbst. Die Arduinos, bestehend aus Soft- und Hardware, bilden ein sogenanntes Physical-Computing, das komplett quelloffen ist. Für reine Bastel- und Automatisierungsprojekte zu einem günstigen Preis möglicherweise eine Alternative.
Damit lassen wir nun die Hardware-Optionen hinter uns und werfen einen Blick auf die mögliche Bestückung mit Software. Unser Fokus liegt dabei auf Virtualisierungsumgebungen, die schlussendlich den Aufbau so gut wie jeder Testinfrastruktur ermöglichen.
VMware ESXi für Testumgebungen
Sehr viele Administratoren haben Erfahrungen im Umgang mit VMware vSphere und der vCenter-Verwaltung. Da der Anbieter den Hypervisor kostenlos zur Verfügung stellt, ist es naheliegend, auf dem kleinen Testserver mit VMware zu arbeiten. Der kostenfreie Hypervisor befindet sich nach der Installation für 60 Tage im "Evaluationsmode", bei dem alle Funktionen eines voll lizenzierten Enterprise Plus ESXi zur Verfügung stehen. Anschließend ist die Eingabe des Lizenzschlüssels erforderlich, den der Administrator für die Free-Edition nach einer Registrierung erhält. Für die kostenlose Variante gibt es jedoch keinen Support, die Anzahl virtueller CPUs ist auf acht pro VM limitiert, eine Verwaltung mit vCenter funktioniert nicht und ein Zugriff auf die vStorage-API ist nicht mehr möglich. Insbesondere der letztgenannte Punkt stellt in der Praxis ein bewusstes Hemmnis dar: Keine Backupfunktion mehr, die von "außen" auf die VMs einwirken könnte.
Wer mit den simplen Einstellungsmöglichkeiten der Weboberfläche zurechtkommt und die virtuellen Maschinen aus dem virtualisierten System heraus zu sichern vermag, hat mit dem kostenfreien Hypervisor eine ideale Plattform für einen kleinen Server gefunden. Zwischen der Glückseligkeit der VMware-Virtualisierung und der eigenen Testumgebung steht nun lediglich der "VMware Compatibility Guide". VMware unterstützt sehr viele, aber nicht alle Hardware-Komponenten.
Wenig Optionen mit Windows Server
Eigentlich unternimmt Microsoft seit Jahren alles, um den Administrator davon abzubringen, in kleineren Umgebungen Windows zu nutzen. Was früher einmal ein überaus spannendes und leistungsfähiges Gesamtkonzept ergab – wir sprechen hier vom Small Business Server – ist heute die Essentials-Edition. Jedoch handelt es sich beim Essentials-Server von heute an sich um einen Standardserver für den Einsatz für bis zu 25 Benutzer und 50 Geräte, ohne jedoch spezielle Programme wie SharePoint oder Exchange mitzuliefern.
Microsoft ist sich offensichtlich ziemlich sicher, wie Administratoren die IT-Zukunft im SOHO-Bereich zu gestalten haben – mit Azure. In der Microsoft-Cloud kann der IT-Profi alle gewünschten Dienste direkt beziehen und muss sich überhaupt nicht um die Bereitstellung der Hardware kümmern. Wer jedoch für das Projekt eine lokale Installation benötigt, beispielsweise da eine Speicherung der Daten in einem Cloud-Storage nicht möglich ist, wird in kleineren Umgebungen mit der Essentials-Variante vorliebnehmen, da die 25/50-CALs im Preis bereits enthalten sind. Sollte das Vorhaben mehr Benutzer oder Geräte ansprechen, sind Microserver nicht mehr die richtige Plattform.
Ein Satz noch zum kostenlosen Hyper-V-Server: Gemäß der Lizenzbedingungen ist dessen primärer Einsatzzweck die Bereitstellung virtueller Windows-Desktops oder Linux-Betriebssysteme. Sobald Windows wieder als Desktop gefragt ist, ist eine Lizenz erforderlich. Wer über eine Standard- oder Datacenter-Edition von Windows verfügt, erwirbt auch automatisch das Recht der Bare-Metal-Installation von Hyper-V mit der Virtualisierung des Windows-Servers selbst.
Linux und spezielle Distributionen
Linux wartet mit einem üppigen Angebot in Form der verschiedenen Distributionen auf. Was letztendlich auf der Platte landet, ob das bekannte Ubuntu, das etablierte Red Hat, SUSE, CentOS, Debian oder doch Fedora, liegt ganz bei der Vorliebe des Administrators. Zum Beispiel verlangt Linux Lite von Entwickler Jerry Bezencon gerade einmal nach einer 1-GHz-CPU, 768 MByte RAM und 8 GByte Storage, ist aber eher eine Desktop-Distribution. ClearOS von ClearCenter hingeggen ist am Markt positioniert, um Windows Small Business Server zu ersetzen. Praktischerweise gibt es diese Distribution vorbereitet für HPE-ProLiant ML110-, ML30- und DL20-Maschinen.
Äußerst spannend sind zudem die speziellen Versionen wie "OpenMediaVault" als NAS-System auf Basis von Debian oder TrueNAS, das auf einem FreeBSD-System basiert. Neben den reinen NAS-Diensten mit Unterstützung für iSCSI, SMB oder NFS bieten diese Systeme auch weitere Dienste, beispielsweise integrierte Virtualisierungsprogramme. Möglicherweise ist ein fertig aufgebautes NAS etwa von QNAP oder Synology auch gleich die richtige Kombination aus Hard- und Software.
Virtualisiert testen mit Proxmox
In der jüngeren Vergangenheit hat sich eine weitere Virtualisierungsplattform in den Vordergrund gedrängt – Proxmox VE (PVE). Diese Debian-basierte Open-Source-Virtualisierung betreibt virtuelle Maschinen auf der Basis von QEMU mit der Kernel-based Virtual Machine (KVM) und LinuX Containern (LXC). Praktischerweise läuft Proxmox VE als Host-System auf jeder Hardware, die auch Debian in der jeweiligen Version unterstützt. Die Unterschiede zu einer gewöhnlichen Debian-Installation bestehen primär in der Vorauswahl der zu nutzenden Hardware. Direkt vom Installations-Image aus unterstützt die Software beispielsweise eine große Anzahl von Ethernet-Netzwerkchips der Firma Intel, was eine spätere Nachinstallation erspart.
Die Hardware-Anforderungen von PVE beginnen mit einer beliebigen 64-Bit-CPU gemäß Intel EMT64 oder AMD64, die CPU/Mainboard-Kombination muss KVM-fähig sein und bereits 1 GByte RAM, eine Festplatte und eine Netzwerkkarte reichen zum Betrieb.
Zu Testzwecken ist "Nested Virtualization" möglich, bei der der Benutzer Proxmox VE selbst unter Hyper-V, VirtualBox, Parallels oder VMware Workstation installiert. Quasi jede aktuelle Maschine erfüllt diese Minimalanforderungen und mit ein wenig mehr Leistung erreicht der Anwender bereits die empfohlenen Hardwarebedingungen. Sowohl typische Desktophardware als auch Enterprise-Komponenten wie SAN oder Distributed Storage (Ceph) bieten sich an.
Die Administration der Software erfolgt über Webinterface oder per SSH-Zugang zur Kommandozeile auf root-Ebene. Dank der guten Dokumentation fällt es dem Administrator recht leicht, Skriptjobs und Systemprogramme für die Verwaltung zu nutzen. Rund um die Basis bietet der Hersteller noch einige kostenpflichtige Optionen an, beispielsweise ein Cloudbackup. Letztendlich erhält der Administrator mit Proxmox eine ausgereifte und leistungsfähige Virtualisierungsumgebung auch für kleinere Computersysteme. Dank ausreichender Infos im Internet und verschiedener Zusatzangebote wie dem Mail Gateway oder dem Backupserver lohnt es sich perspektivisch in jedem Fall, das System kennenzulernen.
Fazit
Den Rahmen für das eigene Testlabor haben wir gesteckt und betrachtet, welche Computersysteme und Virtualisierungsprodukte sich grundsätzlich eignen. Im zweiten Teil stellen wir verschiedene kleinere Computersysteme vor, die sich durch geringe Laustärke und Energieeffizienz für das Einsatzgebiet anbieten. Gleich vorweg – nicht alle großen Hersteller wollten sich mit Testgeräten beteiligen.