ADMIN

2021

04

2021-04-01T12:00:00

Backup und Recovery

SCHWERPUNKT

072

Backup

Recovery

Storage

Strategien für hochperformante Backups

Mehr Daten stemmen

von Jan Kappen

Veröffentlicht in Ausgabe 04/2021 - SCHWERPUNKT

Durch Datenwachstum und immer größere Server steigt der Anspruch an das Backup dieser Systeme. Eine Sicherung muss nicht nur vorhanden sein, sondern sich auch zeitnah wiederherstellen lassen. Hier gilt es, sowohl geeignete Konzepte zu etablieren als auch im Detail auf für das Backup genutzten Speicher, Netze und Software zu schauen. So lässt sich der Sicherungsvorgang auch bei sehr großen Datenmengen zu Höchstleistungen bringen.

Datensicherung ist natürlich kein neues Thema. Vielmehr wurde es schon so häufig besprochen, dass es an der ein oder anderen Stelle eine gewisse Abstumpfung gibt. Umso wichtiger ist es, sich einmal die aktuelle Situation anzuschauen und über neue mögliche Arten von Datenverlust zu reden. Durch eine gut durchdachte Backupinfrastruktur retten Sie vielleicht nicht nur die Daten, sondern bei einem Zwischenfall auch den Fortbestand Ihrer gesamten Firma.
Neben gewöhnlichen Ausfällen von IT-Hardware durch technische Defekte oder Schäden durch äußere Einwirkungen wie Feuer oder Wasser tut sich seit einiger Zeit ein neues Feld von Bedrohung auf: Ransomware, die Firmen über eine Malware angreift und bei einer erfolgreichen Infektion die vorhandenen Daten verschlüsselt und Lösegeld fordert.
Unabhängig davon, durch welche Art von Ausfall Sie betroffen sind, soll möglichst zeitnah eine Wiederherstellung der Daten passieren und muss ein möglichst aktuelles Backup vorhanden sein. Damit sich diese Anforderungen selbst bei Multi-TByte-Systemen erfüllen lassen, ist ein entsprechendes Konzept gefragt.
Datensicherung ist natürlich kein neues Thema. Vielmehr wurde es schon so häufig besprochen, dass es an der ein oder anderen Stelle eine gewisse Abstumpfung gibt. Umso wichtiger ist es, sich einmal die aktuelle Situation anzuschauen und über neue mögliche Arten von Datenverlust zu reden. Durch eine gut durchdachte Backupinfrastruktur retten Sie vielleicht nicht nur die Daten, sondern bei einem Zwischenfall auch den Fortbestand Ihrer gesamten Firma.
Neben gewöhnlichen Ausfällen von IT-Hardware durch technische Defekte oder Schäden durch äußere Einwirkungen wie Feuer oder Wasser tut sich seit einiger Zeit ein neues Feld von Bedrohung auf: Ransomware, die Firmen über eine Malware angreift und bei einer erfolgreichen Infektion die vorhandenen Daten verschlüsselt und Lösegeld fordert.
Unabhängig davon, durch welche Art von Ausfall Sie betroffen sind, soll möglichst zeitnah eine Wiederherstellung der Daten passieren und muss ein möglichst aktuelles Backup vorhanden sein. Damit sich diese Anforderungen selbst bei Multi-TByte-Systemen erfüllen lassen, ist ein entsprechendes Konzept gefragt.
Datenwachstum fordert schnellen Backupspeicher
Allen IT-Landschaften gemein ist aktuell das starke Datenwachstum. Selbst für kleinere Firmen mit weniger als 20 Mitarbeitern ist es mittlerweile vollkommen normal, dass dort Daten in einer Größenordnung von 5 oder mehr TByte vorhanden sind. Mittelständische Unternehmen haben nicht selten Bedarf an 30 bis 100 TByte, die konstant zur Verfügung stehen müssen. In anderen Bereichen sind Unternehmen längst bei Petabyte angekommen. Es gilt, diese Daten kontinuierlich zu sichern und möglichst schnell wieder zur Verfügung zu stellen, sollte es doch mal zu einem Verlust kommen.
Eine Sicherung dieser Daten ist erstmalig eine etwas größere Sache, da alle Files einmalig auf den Backupspeicher wandern müssen. Danach sinkt die benötigte Zeit durch die Nutzung von Technologien wie "Changed Block Tracking" deutlich, da nur noch blockbasierte Änderungen gegenüber der letzten Sicherung erfolgen. Für den Fall einer Rücksicherung muss der IT-Verantwortliche aber die verfügbare Bandbreite, die Größe der VMs beziehungsweise Daten und die Zeit, die solch ein Vorgang benötigt, berücksichtigen.
Beim Storage auf IO-Performance achten
Neben einer guten Anbindung kommt es auch auf die Art Ihres Backupspeichers an. Traditionelle Festplatten spielen hier immer noch eine gewichtige Rolle, da sie eine große Menge an Platz für kleines Geld zur Verfügung stellen. Dies führt aber auch dazu, dass Sie an die Performance von diesen Datenträgern gebunden sind. Dabei ist der reine Durchsatz hier nicht unbedingt das Problem, sondern eher die IO-Performance.
Um die Wiederherstellung von VMs zu beschleunigen, haben viele Hersteller in ihre Software mittlerweile die Möglichkeit eingebaut, Backups direkt aus dem Backup-speicher auszuführen. Dies ermöglicht einen Start von virtuellen Systemen, obwohl sich die Daten noch nicht wieder auf dem ursprünglich genutzten Speicherplatz befinden. Diese Technik beschleunigt eine Wiederherstellung so stark, dass Sie teilweise die Systeme innerhalb weniger Minuten wieder online schalten können, unabhängig vom genutzten Speicherplatz.
Hierbei müssen Sie allerdings beachten, dass nun die IO-Last auf Ihrem Backupspeicher anliegt. Je nach Ausstattung wird dieser teilweise langsamer, teilweise aber auch unbrauchbar. Hinzu kommt, dass durch den Kopiervorgang der Daten zurück auf den Produktivspeicher eine zusätzliche Last anliegt. Möchten Sie diese Funktionen nutzen, müssen Sie diese Aspekte während der Planungsphase berücksichtigen. Festplatten bieten je nach Modell und Klasse eine Leistung von rund 100 bis 250 IOPS. Klassische SSDs, die für den Einsatz in einem Server zugelassen sind, heben diese Werte auf Bereiche zwischen 20.000 und 60.000 IOPS an. Sollten auch diese Werte nicht ausreichen, bietet sich der Einsatz von NVMe-Speicher an. Hierbei wird Flashspeicher nicht mittels SATA- oder SAS-Bus angesprochen, sondern per PCIe. Dies entfesselt die maximale Leistung und bringt Ihnen, je nach Modell, Werte von bis zu 750.000 IOPS pro Datenträger. Wir gehen aber im weiteren Verlauf des Artikels noch darauf ein, wie Sie Ihr Backup beschleunigen, ohne direkt Unsummen in Flashspeicher zu investieren.
Die Sache mit dem Netzwerk
Die Anbindung zwischen dem Backupserver und Ihrer Infrastruktur lässt sich häufig optimieren. Nutzen Sie für das Backup eine 1-GBit/s-Anbindung, können Sie theoretisch knapp 450 GByte pro Stunde übertragen: In der Realität ist dieser Wert etwas geringer, rechnen Sie daher eher mit 400 GByte pro Stunde. Müssen Sie 5 TByte an Daten wiederherstellen, dauert dies knapp 12 Stunden, bei 10 TByte sind wir schon bei einem Tag oder mehr.
Hier sollten Sie ansetzen und die nutzbare Bandbreite erhöhen. Hardware für 10 beziehungsweise 25 GBit/s ist mittlerweile durchaus bezahlbar und entfernt direkt einen großen möglichen Flaschenhals. Dies führt zu einem kürzeren Backupfenster und signifikant sinkenden Recovery-Zeiten. Fahren Sie das Backup über ein dediziertes Netz, entlastet dies zusätzlich noch Ihr Produktivnetzwerk und die Bandbreite steht für andere Dinge zur Verfügung.
In manchen Umgebungen kommen mittlerweile sogar Anbindungen mit 100 GBit/s zum Einsatz und auch diese Hardware ist kein Budget-Sprenger mehr. Nutzen Sie in Ihrer Infrastruktur Ethernet als Storage-Protokoll (etwa beim Einsatz von Microsoft-Technologien wie "Storage Spaces Direct" beziehungsweise "Azure Stack HCI"), können Sie die Backupinfrastruktur hier eingliedern und brauchen gegebenenfalls noch nicht einmal zusätzliche Netzwerkhardware.
Bild 1: Der Aufbau von Speicher-Tiers – hier im Demo-Labor mit Veeam – sorgt für die zeitliche Verteilung der Backups auf unterschiedlich teure Speichermedien.
Mehrschichtiges Backupkonzept
SAN-Speicher lassen sich schon lange hybrid aufbauen. Dies kombiniert Datenträger mit unterschiedlichen Attributen, um die jeweils besten Eigenschaften zu nutzen. Die Kombination aus SSD und HDD sorgt beispielsweise dafür, dass für den Teil der Daten, mit dem aktuell gearbeitet wird (Hot Data), die schnellen, aber teureren SSDs zum Einsatz kommen können. Der andere Teil der Daten, der nicht wirklich in Nutzung ist, aber trotzdem vorhanden sein muss (Cold Data), lagert dann auf den großen und langsamen, aber günstigen HDDs.
Um durch diese Kombination auch für Ihr Backup einen Performance-Schub zu erreichen, definieren Sie zwei unterschiedliche Speicherorte. Der erste Ort (im weiteren Verlauf als Tier-1 bezeichnet) besteht aus Flashspeicher und ist in der Lage, ein paar Tage lang Backupdaten vorzuhalten. Wie lange dieser Zeitraum ist, legen Sie fest. Da ein großer Teil von Datenwiederherstellungen mit dem jüngsten Backup passiert, reichen hier meist wenige Tage. Je länger Sie die Daten auf Tier-1 speichern möchten, desto teurer wird dieser Speicherbereich. Wiederherstellungen daraus sind sehr schnell und auch Funktionen wie "Instant Recovery", also der Start von VMs aus dem Backup-Speicher, profitieren stark von der hohen Performance.
Einige Backupprodukte unterstützen auch eine manuelle oder automatisierte Wiederherstellung von Backups zu Testzwecken und zur Verifizierung der Datenintegrität. Dies stellt nicht nur sicher, dass die Sicherung vorhanden ist, sondern zeigt auch, dass eine Wiederherstellung möglich und Ihr Backup brauchbar ist. Diese Funktion zur Wiederherstellung von Daten in einer Sandbox trägt nicht nur zur Sicherheit bei, sondern erfüllt häufig auch diverse Compliance-Anforderungen. In vielen Audits oder bei dem Abschluss von Versicherungen wird mittlerweile abgefragt, ob regelmäßig Wiederherstellungen zu Validierungszwecken erfolgen. Backupspeicher mit ausreichend Performance ermöglicht solche Tests innerhalb kürzester Zeit, selbst mit multiplen VMs gleichzeitig. Durch die Wiederherstellung in einer speziellen Sandbox wird Ihre Produktion davon zu keiner Zeit gestört, die Tests können zum Beispiel auch tagsüber laufen. Ein weiterer Vorteil dieser abgeschirmten Umgebung ist, dass Sie mit temporär gestarteten VMs Szenarien wie Updates, Upgrades und so weiter durchspielen können.
Ist der Zeitraum, in dem die Backupdaten sich in Tier-1 befinden dürfen, abgelaufen, wandern sie automatisch auf einen dahinter liegenden Speicher (Tier-2). Auch für diesen Storage legen Sie fest, wie lange er die Daten speichert. Durch strategische Zeitpunkte wie wöchentlich, monatlich oder jährlich erreichen Sie so Zeiträume von mehreren Jahren. Durch die Nutzung von drehenden Spindeln haben Sie zwar keine allzu große Performance (gegenüber dem Tier-1-Speicher), allerdings bekommen Sie deutlich mehr Speicher zu geringeren Kosten. Mit jedem Tag, an dem die Backupdaten altern, sinkt die Wahrscheinlichkeit, dass sie diese Daten noch einmal benötigen und wiederherstellen müssen. Merkt aber ein Kollege erst nach Monaten, dass zum Beispiel wichtige Files auf dem Dateiserver fälschlicherweise überschrieben wurden oder komplett fehlen, wird er froh sein, dass die Daten noch vorhanden sind, selbst wenn eine Wiederherstellung länger als ein paar Minuten dauert.
Die Bewegung der Daten zwischen den unterschiedlichen Backup-Tiers sollte grundsätzlich automatisch passieren, damit keine manuellen Eingriffe notwendig sind. Professionelle Backupsoftware unterstützt Sie bei diesen Schritten und hat diese Funktion standardmäßig mit an Bord. Achten Sie hier unbedingt auf die vorhandenen Editionen: Je nach Software sind diese Funktionen eher in den teureren Editionen enthalten und sind gegebenenfalls nachträglich oder zusätzlich zu lizenzieren.
Hard- und Software optimal kombinieren
Veeam hat mit "Backup & Replication" ein Produkt auf dem Markt, das in wenigen Jahren einen beachtlichen Marktanteil erreicht hat und einen sehr guten Ruf genießt. Gepaart mit einer durchdachten Hardwarekonfiguration können Sie so eine Backupinfrastruktur aufbauen, die stark skalierbar ist und nebenbei auch von der bereits angesprochenen Hardwareperformance profitiert.
Der kleinste und einfachste Aufbau kombiniert Software und Speicher direkt in einem einzelnen System. Hier werden die Datenträger entweder direkt im Server betrieben, alternativ können Sie auch ein oder mehrere externe JBOD-Gehäuse anschließen und so die Menge der Datenträger stark erhöhen – je nach Modell passen zwischen 12 und 72 Datenträger hinein. Diese lassen sich dann entweder klassisch über einen RAID-Controller zu einem oder mehreren Pools zusammenfassen.
Alternativ bietet sich hier auch die Nutzung von Storage Spaces Direct an. Hierbei muss jede Festplatte, die über einen Non-RAID-Controller (HBA) angeschlossen it, einzeln im Windows-Server-Betriebssystem sichtbar sein. Diese nehmen Sie nun in einen Speicherpool auf und basierend auf diesem Pool können Sie dann virtuelle Datenträger erzeugen. Vorteil dieses Ansatzes ist, dass Sie nicht an die Leistung des RAID-Controllers gebunden sind. Weiterhin können Sie bei einem Windows-Storage-Spaces-Pool mehrere Datenträgertypen kombinieren, um den Flashspeicher strategisch als Cache zu nutzen.
Wenn Sie in diesem Aufbau den Server in Bezug auf CPU, RAM und Netzwerk ausreichend dimensionieren, kann er bei der Nutzung von Veeam auch noch als VMware-Backup-Proxy dienen. Unter Hyper-V wäre dies ebenso möglich wie die Nutzung der Ressourcen des jeweiligen Hyper-V-Hosts.
Ist Ihnen ein einzelnes System zu riskant oder haben Sie Bedarf an mehr Speicherplatz, bietet sich der Betrieb eines Fail-over-Clusters an, der für die Speicherung der Backupdaten verantwortlich ist. Seit Windows Server 2016 ist dies in Storage Spaces Direct vorhanden. Beachten Sie, dass Sie für den Betrieb die Datacenter-Edition benötigten, da die Standard-Edition diese Funktion nicht bietet. So können Sie mit gewöhnlichen Serversystemen und lokal angeschlossenen Datenträgern einen hochverfügbaren und skalierbaren Speicher aufbauen. Der Aufbau erfordert minimal zwei Knoten, maximal sind pro Cluster bis zu 16 Server möglich. Dies erlaubt einen Speicherplatz von bis zu 4 PByte pro Cluster, der auf Wunsch ausschließlich für Ihre Backupdaten zur Verfügung steht.
Reicht Ihnen dies nicht aus oder möchten Sie zwei Storage-Cluster an unterschiedlichen Orten oder in unterschiedlichen Brandbereichen aufbauen, können Sie diese wiederum in der Veeam-Software zu einem "Scale-Out Repository" hinzufügen. Diese Technik setzt einzelne Speicherorte und -geräte zu einem logischen Speicherziel zusammen. So lassen sich im Hintergrund beliebig viele Backupspeicher hinzufügen oder entfernen, für die Backupjobs ändert sich nichts. Dies ermöglicht ein flexibles Wachstum, ohne dass Sie bei jeder Erweiterung sämtliche Backupjobs anzucken oder im schlimmsten Fall TByte an Daten verschieben müssen.
Als Dateisystem in einem S2D-Cluster kommt ReFS zum Einsatz. Veeam arbeitet mit diesem Dateisystem zusammen, der gemeinsame Einsatz bringt Ihnen einige Vorteile bei der täglichen Arbeit. Durch die Unterstützung von Metadaten-Operationen müssen keine langwierigen Kopierprozesse auf dem Laufwerk erfolgen, sondern es werden lediglich neue Zeiger auf die Datenblöcke gesetzt. Dies macht sich besonders stark bei Backupketten bemerkbar. Erstellen Sie zum Beispiel 14 Tage lang ein inkrementelles Backup, muss an Tag 15 die Änderung gegenüber Tag 14 gespeichert werden, weiterhin müssen die Daten von Tag 1 in die Datei von Tag 2 wandern. Je nach Größe und Performance des Speichers kann dieser Prozess bei einem NTFS-Volume teilweise Stunden dauern. Unter ReFS werden die Daten auf dem Volume nicht bewegt, sondern nur auf den bereits verwendeten Speicherort verwiesen. Dieser Prozess ist sehr schnell und meist innerhalb von ein bis zwei Minuten abgeschlossen.
Ein weiterer Vorteil ist, dass bei der Erstellung von Wochen-, Monats- oder Jahressicherungen, die ja jedes Mal eine komplette Backupdatei auf dem Speicher erzeugen, die Daten nicht komplett neu geschrieben werden, sondern auf die bereits vorhandenen Blöcke verweisen. Dies spart nicht nur Zeit, sondern auch einiges an Speicherplatz.
Geld oder Datenverlust!
Backups bieten auch Optionen, Ihre Daten gegen Ransomware zu schützen. Hierzu legen Sie die Sicherung auf einem weiteren Speicher ab (Tier-3). Dieser kann vor Ort stehen, in einem anderen Gebäude, einer anderen Stadt, in einem anderen Land oder ausgelagert bei einem Cloud-anbieter. Je nach Art und Beschaffenheit des Speichers ist es nachträglich nicht möglich, Daten zu verändern. Dies führt dazu, dass Malware die abgelegten Back-ups nicht löschen oder verschlüsseln kann. Beispiele für diese Art von Speicher sind eine Deduplikationsappliance oder ein Objektspeicher (zum Beispiel AWS-S3-Storage), bei dem jedes Objekt ein Attribut erhält, das festlegt, wie lange es nicht verändert werden darf.
Nutzen Sie einen solchen Speicher, können die Daten entweder direkt aus Tier-1 auf Tier-2 und Tier-3 geschrieben werden, alternativ wandern die Daten von Tier-2 nachgelagert auf Tier-3. Hierbei ist dann aber zu berücksichtigen, von wann diese Backupdaten in dem Moment der Auslagerung stammen und ob diese nicht schon zu alt für das Disaster Recovery sind.
Immer verschlüsseln
Verschlüsseln Sie grundsätzlich Ihre Backups, egal ob sie vor Ort oder bei einem Drittanbieter beziehungsweise in Cloudstorage gespeichert werden. Nur mit Verschlüsselung müssen Sie sich keine Gedanken darüber machen, wer noch einen Zugriff auf die Daten hat. Kommen die Daten abhanden oder werden unbefugterweise entwendet, wird das Kennwort für die Entschlüsselung benötigt. Dies sollte einmalig, möglichst lang und mindestens einmal offline vorhanden sein – zum Beispiel versiegelt in einem Safe oder hinterlegt bei einem Notar.
Viele Unternehmen setzen auch weiterhin noch auf eine Bandsicherung, um den "Air Gap" zu erreichen. Da sich solche Daten nur dann aktiv löschen oder manipulieren lassen, wenn das Band eingelegt ist, haben Sie einen sehr hohen Schutz vor Angriffen von außen und innen. Nachteil einer solchen Sicherung ist, dass Sie sich regelmäßig um die Bänder kümmern und Monats- oder Jahressicherungen per Hand in einen Tresor oder ein Schließfach bringen müssen.
Kommt für Sie die Auslagerung der Daten zu einem Cloudanbieter in Frage, sollten Sie im Vorfeld einige Dinge klären und in Ihr Backupkonzept einfließen lassen. Hierzu zählt unter anderem die zur Verfügung stehende Bandbreite. Kommt eine asymmetrische Leitung zum Einsatz, sind die Upload-Kapazitäten meist stark beschränkt und es ist technisch nicht möglich, die Backupdaten zeitnah beim Anbieter zu speichern.
Bild 2: Ein drittes Storage-Tier mit Immutable-Eigenschaft kann vor Ransomware schützen.
Da ein Cloudspeicher häufig zur Archivierung von Backupdaten dient, müssen Sie diese Daten für Jahre oder sogar Jahrzehnte aufbewahren. Die Kosten für diese Zeit sollten Sie nicht unterschätzen und sorgfältig recherchieren. Die Wahl des Anbieters spielt hier ebenfalls eine große Rolle. Teilweise ist die reine Speicherung der Daten sehr günstig, allerdings kostet ein Abruf der Daten dann das Mehrfache davon.
Haben Sie sich für einen Anbieter entschieden, ist es meist mit hohen Kosten verbunden, die Backups nachträglich zu einem anderen Anbieter zu migrieren. Auch sollten Sie bedenken, dass die Auslagerung von Daten Sie möglicherweise dazu verpflichtet, das Speicherabonnement weiterzuführen, selbst wenn Sie den primär genutzten Anbieter schon längst gewechselt haben.
Auf der anderen Seite bietet ein Cloudspeicher auch einige Vorteile. Selbst kleine Firmen ohne großes IT-Budget können ihre Daten schnell und unkompliziert an einem zweiten Standort speichern, ohne in zusätzliche Hard- und Software zu investieren. Kommt es zu einem Zwischenfall vor Ort und die lokalen Systeme werden kompromittiert, zerstört oder entwendet, liegen die Daten sicher und weiterhin abrufbar in einem oder sogar mehreren Rechenzentren.
Fazit
Ein stimmiges Backupkonzept, gepaart mit einer guten Kombination aus Hard- und Software, ermöglicht eine schnelle und zuverlässige Wiederherstellung Ihrer Daten. Eine Auslagerung an einen anderen Standort sorgt zusätzlich dafür, dass sich der Betrieb auch bei einer größeren Störung vor Ort wieder aufnehmen lässt.
Eine hohe Performance der Sicherung entlastet nicht nur die produktiv genutzte Infrastruktur, sondern ermöglicht Ihnen oftmals auch das Erstellen von Sicherungen zu Zeitpunkten, in denen dies bisher nicht möglich war. Gerade in Betrieben, in denen die IT 24/7 zur Verfügung stehen muss, kann sich dies äußerst positiv bemerkbar machen.
 (jp)