In jeder Ausgabe präsentiert Ihnen IT-Administrator Tipps, Tricks und Tools zu den aktuellen Betriebssystemen und Produkten, die in vielen Unternehmen im Einsatz sind. Wenn Sie einen tollen Tipp auf Lager haben, zögern Sie nicht und schicken Sie ihn per E-Mail an tipps@it-administrator.de.
Unsere Anwender beklagen sich, wenn sie morgens zur Arbeit kommen, den PC starten und dann die Internetverbindung per WLAN nicht funktioniert. Oft geben wir dann den Tipp, als Schnellmaßnahme den Flugzeugmodus an- und wieder auszuschalten. Nicht immer hat diese Maßnahme jedoch Erfolg und es lässt sich weiterhin keine Verbindung zum Internet herstellen – und das, obwohl die Einstellungen stimmen. Gibt es hier weitere Maßnahmen zur Fehlerbehebung?
Wenn Sie sicher sind, dass sämtliche Internet-Settings stimmen, sollten Sie versuchen, den DNS-Cache und die bestehenden IP-Leases zu löschen. Öffnen Sie hierzu die Eingabeaufforderung von Windows als Administrator und tippen Sie den Befehl ipconfig /flushdns ein – das Leerzeichen gehört vor den Schrägstrich, nicht danach. Als Nächstes folgt das Kommando ipconfig /registerdns und danach noch ipconfig /release. Klicken Sie nun in der Taskleiste auf das Globus-Symbol, um die getrennte Internetverbindung anzuzeigen, und setzen Sie falls erforderlich im Kontrollkästchen bei
"Automatisch verbinden" das Häkchen. Manchmal kann es auch nötig sein, den Computer noch einmal neu zu starten, um die Änderungen zu übernehmen. Der Rechner sollte nun wieder über das ausgewählte WLAN mit dem Internet verbunden sein.
Unsere Anwender beklagen sich, wenn sie morgens zur Arbeit kommen, den PC starten und dann die Internetverbindung per WLAN nicht funktioniert. Oft geben wir dann den Tipp, als Schnellmaßnahme den Flugzeugmodus an- und wieder auszuschalten. Nicht immer hat diese Maßnahme jedoch Erfolg und es lässt sich weiterhin keine Verbindung zum Internet herstellen – und das, obwohl die Einstellungen stimmen. Gibt es hier weitere Maßnahmen zur Fehlerbehebung?
Wenn Sie sicher sind, dass sämtliche Internet-Settings stimmen, sollten Sie versuchen, den DNS-Cache und die bestehenden IP-Leases zu löschen. Öffnen Sie hierzu die Eingabeaufforderung von Windows als Administrator und tippen Sie den Befehl ipconfig /flushdns ein – das Leerzeichen gehört vor den Schrägstrich, nicht danach. Als Nächstes folgt das Kommando ipconfig /registerdns und danach noch ipconfig /release. Klicken Sie nun in der Taskleiste auf das Globus-Symbol, um die getrennte Internetverbindung anzuzeigen, und setzen Sie falls erforderlich im Kontrollkästchen bei
"Automatisch verbinden" das Häkchen. Manchmal kann es auch nötig sein, den Computer noch einmal neu zu starten, um die Änderungen zu übernehmen. Der Rechner sollte nun wieder über das ausgewählte WLAN mit dem Internet verbunden sein.
(Serverhero/ln)
Viele weitere Anleitungen, Tipps und Best Practices rund um Server, Storage und Netzwerk finden Sie auf der Wissensseite von Serverhero unter https://serverhero.de/serverhero-wissen.
Für das serverlose Ausführen unserer Anwendungen nutzen wir AWS Lambda. Damit wir Leistung und Kosten bestmöglich an unsere Bedürfnisse anpassen können, überwachen wir die Funktionen und Prozesse kontinuierlich. Das heißt, wir sammeln Metriken und analysieren Verlaufsprotokolle, um die Performance zu verbessern. Wie können wir diese Arbeitsabläufe vereinfachen und automatisieren?
Zur Analyse Ihrer Lambda-Funktionen lassen sich zwar unterschiedliche Tools und Datenquellen nutzen, allerdings ist dies manuell sehr zeitaufwändig. Denn dazu müssen Sie angepasste Metriken und Dashboards erstellen und können erst danach die gewünschten Daten anzeigen und auswerten. Allerdings ist es möglich, diese Prozesse mit AWS CloudWatch Lambda Insights zu automatisieren. Das Werkzeug bietet Ihnen einen tiefgehenden Einblick in das Verhalten Ihrer Lambda-Funktionen und erhöht deren operative Sichtbarkeit. Dafür empfängt der Dienst Performancemetriken, Fehler und Protokolle in bereits vorgefertigten Dashboards und fasst sie dort zusammen. Auf diese Weise erlaubt Lambda Insights eine einfache und bequeme Übersicht des Verhaltens aller Lambda-Funktionen und erhöht dadurch die Transparenz Ihrer Prozesse.
So richten Sie AWS CloudWatch Lambda Insights ein: Zunächst müssen Sie Lambda Insights für Ihre Funktionen aktivieren. Öffnen Sie dazu in der Lambda-Konsole die Funktionsliste und wählen Sie die gewünschte Funktion aus. In der Ansicht "Konfiguration" klicken Sie im Bereich "Überwachungs- und Betriebstools" auf "Bearbeiten". Aktivieren Sie nun "Erweiterte Überwachung" und speichern diese Einstellung. In der CloudWatch-Konsole wählen Sie im Navigationsbereich "Insights" den Unterpunkt "Lambda Insights" aus. Nun befinden Sie sich auf der "Multi-function"-Ansicht. An dieser Stelle laufen alle Metriken für die aktivierten Funktionen grafisch zusammen. Am unteren Ende der Seite befindet sich eine Tabelle mit einer Liste aller Funktionen und einer Zusammenfassung von Daten in den abgebildeten Diagrammen. Dort lassen sich alle Informationen basierend auf der gewünschten Metrik sortieren. Sobald CloudWatch Lambda Insights aktiviert ist, beginnt es automatisch mit dem Sammeln und Zusammenfassen von Leistungsmetriken und Protokollen.
Mithilfe des Lambda-Insights-Dashboards erhalten Sie sämtliche Informationen für Ihre Lambda-Funktionsanfragen mit nur einem Klick.
(AWS/ln)
Unser Unternehmen ist auf Parallels Remote Application Server für virtuelle Desktop-Infrastrukturen umgestiegen. Wir suchen dafür nach Möglichkeiten einer optimierten Ressourcennutzung, um ein besseres Benutzererlebnis bei veröffentlichten Desktops zu gewährleisten. Was empfehlen Sie?
In bestimmten Anwendungsfällen ist es nicht erforderlich, eine virtuelle Maschine standardmäßig mit allen Features und Diensten zu installieren, denn dies verbraucht Ressourcen und kann die Nutzererfahrung negativ beeinflussen. Verschiedene Aufgaben wie die Reduzierung der Anzahl laufender Dienste oder die Deaktivierung unnötiger Funktionen und Komponenten können die Leistung und Ressourcenauslastung sowie die Benutzererfahrung bei der Virtualisierung verbessern. Parallels Remote Application Server verfügt dazu über diverse Image-Optimierungen beispielsweise in den Bereichen UWP-Anwendungspakete, Windows Defender ATP, Registrierung, visuelle Effekte, Bereinigung der Festplatte oder andere Windows-Dienste. Zusätzlich zu den VDI-Arbeitslasten können Sie automatisierte Image-Optimierungen auch auf Remotedesktop-Sitzungshosts (RDSH), Azure Virtual Desktops und Remote-PC-Pools über VDI anwenden. Alle Optimierungen sind derart konzipiert, dass Administratoren sie leicht aktualisieren oder Ihre benutzerdefinierten Skripte zum Optimierungsverfahren hinzufügen können.
Um eine Vorlage für einen virtuellen Desktop mit automatisierten Image-Optimierungen mit dem Parallels-Assistenten zu erstellen, gehen Sie wie folgt vor: Suchen Sie die Registerkarte "Vorlagen" im Abschnitt "VDI". Fügen Sie "Aufgaben wählen" aus dem Dropdown-Menü hinzu und suchen Sie eine Gastmaschine aus der virtuellen Gästeliste aus. Wählen Sie Ihren virtuellen Desktop aus und installieren Sie bei Bedarf den RAS Guest Agent. Geben Sie dann Vorlagenname, maximale Gast-VMs, Anzahl der nach Abschluss des Assistenten bereitgestellten Gast-VMs, Name der Gast-VM und Klon-Methode an. Im Anschluss sind die Angaben hinsichtlich verfügbar zu haltendem Puffer, Gast-VM-Status nach der Vorbereitung und dem Löschen von nicht verwendeten Gast-VMs einzutragen. Außerdem können Sie hier die Verteilung von Multi-Provider-Vorlagen aktivieren oder deaktivieren. Danach wählen oder ändern Sie den Ordner, in dem die Gast-VMs erstellt werden, sowie das Tool zur Image-Vorbereitung, zum Beispiel RASprep oder Sysprep. Zum Abschluss überprüfen Sie, ob das Kontrollkästchen "Optimierung aktivieren" markiert ist. Wenn das Optionsfeld automatisch aktiviert ist, kommen alle Optimierungskategorien zur Anwendung. Ist dagegen die Option "manuell“ ausgewählt, können Sie als Administrator entscheiden, welche Kategorien konfiguriert werden sollen.
(Parallels/ln)
Wir überwachen unsere IT-Infrastruktur mit PRTG Network Monitor und nutzen unter anderem den Veeam Backup Job Status Sensor, um unsere Sicherungen im Blick zu behalten. Das funktioniert reibungslos, trotzdem fragen wir uns, ob es noch weitere Möglichkeiten gibt, Backups zu überwachen, und ob wir mit zusätzlichen PRTG-Werkzeugen den gesamten Backupprozess noch nahtloser monitoren können.
Die Verwendung eines dedizierten Sensortyps wie der Veeam Backup Job Status Sensor ist in jedem Fall die erste Anlaufstelle zum Monitoring Ihres Backups. In der Tat gibt es darüber hinaus einige weitere Möglichkeiten in PRTG, wie Sie Ihren Sicherungsprozess im Blick behalten. Eine Möglichkeit ist zum Beispiel der Datei-Sensor in PRTG. Mit diesem können Sie zum Beispiel den Zeitstempel einer Datei überwachen, um die Zeit zu bestimmen, die seit der letzten Änderung vergangen ist (in Tagen, Stunden und Minuten, abhängig von der verstrichenen Zeit). Oder aber Sie verwenden den Ordner-Sensor, wenn Ihre Backuplösung bei jeder Sicherung eine neue Sicherungsdatei erstellt und diese in einem bestimmten Ordner speichert. Mit diesem Sensor können Sie beispielsweise die neueste und die älteste Datei in einem Ordner monitoren.
Die meisten Backupprodukte senden E-Mail-Benachrichtigungen über den Status der letzten Sicherung. Wählen Sie den IMAP-Sensor, wenn Sie solche E-Mail-Benachrichtigungen automatisch auf fehlgeschlagene Backups überprüfen möchten. Der Sensor verwendet spezifische Filteroptionen, um Nachrichten auf Schlüsselwörter in der Betreffzeile und im Hauptteil einer E-Mail zu prüfen. Er kann Sie benachrichtigen, wenn eine Sicherung fehlgeschlagen ist. Verwenden Sie den Sensor "Programm/Skript (Erweitert)", wenn Sie etwa ein benutzerdefiniertes PowerShell-Skript ausführen möchten, um Ihre Sicherungen zu überwachen und die zurückgegebenen Werte in mehreren Kanälen in PRTG anzuzeigen. Eine übersichtliche Zusammenfassung dieser und weiterer Tipps zum Monitoring Ihrer Backups finden Sie im How-To-Bereich auf der Paessler-Webseite [Link-Code https://www.de.paessler.com/support/how-to/monitor-backups/].
Mit dem Datei-Sensor in PRTG überwachen Sie den Zeitstempel Ihrer Backup-Datei.
(Paessler/ln)
Viele weitere Tipps und Tricks rund um das Thema Monitoring mit PRTG finden Sie in der Paessler Knowledge Base unter https://kb.paessler.com.
Stimmt die Dokumentation nicht, gestaltet es sich nicht immer ganz einfach, die auf einem System installierte Edition von Windows 2019 Server herauszufinden. Haben Sie hier einen Tipp, wie wir diese am schnellsten in Erfahrung bringen?
Um die aktuelle Windows-Server-2019-Edition anzuzeigen, die auf dem Computer installiert ist, nutzen Sie in der Befehlszeile einfach das Kommando
dism /online /Get-CurrentEdition
Im Fenster erscheinen die Edition und weitere Information zur Installation. Um herauszufinden, zu welchen Editionen sich die installierte Version aktualisieren lässt, dient Ihnen der Befehl
dism /online /Get-TargetEditions
Und um etwa die Aktualisierung von Standard zu Datacenter durchzuführen, tippen Sie
ein. Als "ProductKey" ist die Seriennummer der Datacenter-Edition gefragt. Nach der Aktualisierung dürfen Sie dann nicht vergessen, den Server neu zu starten.
Thomas Joos/jp/ln
Die Leistung einer Webanwendung zu diagnostizieren, ist in der Regel ein komplexes Unterfangen, denn Perfomanceverlust kann an zahlreichen Stellen auftreten. Dabei steht in der Regel das Frontend im Fokus, um ein optimales Benutzererlebnis sicherzustellen. Doch auch im Backend der Applikation kann es unrund laufen. Aufgrund dieser Komplexität haben sich in den letzten Jahren Werkzeuge zum Application Performance Monitoring (APM) etabliert. Sie bieten eine einheitliche Überwachung, Verfolgung und Analyse sowohl für das Front-end als auch für das Backend einer Anwendung. Diese Informationssammlung macht es viel einfacher, Probleme zu diagnostizieren und zu beheben, um das bestmögliche Benutzererlebnis zu bieten. So lässt sich eine gute Geschwindigkeit sowohl aus der Sicht des Benutzers als auch aus der Backend-Perspektive sicherstellen. Hier setzt das Open-Source-Werkzeug Scouter an.
Scouter überwacht sowohl webbasierte als auch native Java-Anwendungen sowie die beliebtesten Webserver-Datenbankplattformen wie Nginx, Apache, MySQL, Redis und MongoDB. Zwar kann es in Sachen GUI-Gestaltung nicht unbedingt mit kommerziellen Werkzeugen mithalten, doch seine Nutzung ist kostenlos und es deckt alle Aufgaben eines APM-Tools ab. So untersucht die Software Benutzeraktivitäten, Ressourcenmetriken und Response-Zeiten.
Im Detail gliedern sich die von Scouter ermittelten Metriken in drei Bereiche: Für die Anwendungsnutzer lassen sich aktuelle aktive User ermitteln, die Anzahl der täglichen Besucher sowie die Aktivitäten des Tages. Als zweiten Faktor ermittelt die Software Perfomancedaten zu den Diensten der untersuchten Anwendung, wozu etwa die Antwortzeit zählt. Schließlich erfährt der IT-Verantwortliche noch, wie die Anwendung die Infrastruktur in Sachen CPU, RAM und Netzwerk auslastet.
Das Monitoring mit Scouter erfolgt über Agenten, wobei sich der Java-Agent um die Java-Anwendung kümmert (auf Tomcat, JBoss, Resin oder Standalone). Der Host-Agent lebt in den Betriebssystemen Linux, Windows und Unix und liefert von dort Daten für die Monitoringziele Redis, Nginx, Apache httpd, HAproxy, Kafka, MySQL, MongoDB, RabbitMQ, Elastic-Search und zahlreiche andere. Voraussetzung für den Betrieb ist ein installiertes JDK 7+, dann funktioniert Scouter auf Windows, Linux und macOS.
Die freie Software Scouter liefert Leistungsdaten zu Java-basierten Webanwendungen.
Der Einsatz eines Webserver-Stress-Tools liefert bereits während der Entwicklung und insbesondere später beim Betrieb einer Website wichtige Informationen, die eine reibungslose Funktion der Webinfrastruktur sicherstellen. So zeigen derartige Anwendungen zum Beispiel Hinweise, die es erlauben, für eine maximale Verfügbarkeit zu sorgen, indem sie leistungskritische Probleme aufzeigen. Zudem stellen Stress-Tools sicher, dass Website und -anwendungen die notwendigen Hardwareressourcen erhalten, um Nutzern mit der gewünschten Geschwindigkeit zur Verfügung zu stehen. Diese Untersuchung sorgt ebenfalls dafür, dass sich Kosten optimieren lassen, indem IT-Verantwortliche beispielsweise ermitteln, dass statt der geplanten vier neuen Server nur drei notwendig sind. All dies will die freie Software Ali in Echtzeit ermitteln.
Das Open-Source-Tool Ali kommt als eine Kombination aus Kommandozeilenwerkzeug und interaktiver Grafik daher. Das Ali-Setup unterstützt zahlreiche Plattformen aus dem Linux-Kosmos sowie eine Installation als Docker-Container und ist schnell erledigt. Über die dann zur Verfügung stehende Befehlszeile hinterlegt der Admin dann zunächst den zu untersuchenden Webserver. An diesen sendet der Admin HTTP-Header, Testdauer, Ratenlimit, Zeitlimit und mehr, um den Stresstest zu starten. Hier lassen sich die Parameter im Übrigen auch kombinieren. Ist der Test so auf den Weg gebracht, öffnet sich eine Terminal-basierte Benutzeroberfläche, die die Auswirkungen der gewählten Parameter auf den Webserver in Echtzeit darstellt. Die so erzeugten Grafiken sind interaktiv und unterstützen auch den Einsatz der Maus, sodass der IT-Verantwortliche gezielt einzelne Werte des Tests in Augenschein nehmen kann.
Kubernetes erlaubt, eine einsatzbereite Umgebung mit relativ wenig Aufwand zur Verfügung zu stellen. Doch oft denken IT-Verantwortliche im Vorfeld nicht darüber nach, wie sich später die Wartung der Umgebung gestaltet, wie Scale-ups und -downs zu handhaben sind und wie Upgrades oder Konfigurationsänderungen erfolgen. Denn der Testaufbau geht in der Regel nicht in Produktion, vielmehr gilt es, Kubernetes in eine gewachsene Umgebung zu integrieren. Dabei liegt es gerade bei einem System wie Kubernetes auf der Hand, ein Framework zu nutzen, um die Bereitstellung, Skalierung und Verwaltung zu automatisieren. Denn Kubernetes dient ja gerade der Automatisierung auf Anwendungsebene und das manuelle Aufbauen erzeugt Fehler, die Admins eigentlich durch die Einführung des Systems tilgen wollten. Hier kommt Kubespray ins Spiel.
Das freie Deployment-Framework Kubespray stellt eine Kombination aus Kubernetes und Ansible dar. So lässt sich Kubernetes automatisiert lokal ausrollen oder als Cluster in der Cloud wie zum Beispiel bei AWS anlegen. Neben AWS kommen als Ziele für den Aufbau des Kubernetes-Clusters auch die Google-Cloud und Azure infrage, die Oracle-Cloud als Ziel beschreiben die Entwickler derzeit als "experimentell". Darüber hinaus lässt sich Kubespray in Kombination mit OpenStack und vSphere oder auf Baremetal-Servern nutzen. All dies funktioniert mit Kubernetes ab Version 1.17. Das Ausrollen des Clusters ist dabei bis ins Detail steuerbar und somit automatisierbar. Basis dessen sind Asible-Playbooks, die der Admin mit den entsprechenden Angaben bestückt. Hier lässt sich zunächst bestimmen, wo Worker-, Master- oder etcd-Nodes entstehen oder entfernt werden sollen. Daneben erlauben die Ansibel-Variablen, den Cluster bis ins Detail zu steuern und beispielsweise Netzwerkfeatures, Loadbalancer, DNS und vieles mehr automatisiert einzurichten.
Mit Kubespray setzen Sie einen Kubernetes-Cluster schnell und automatisch auf.