Dass Sie eine Sicherung Ihrer Daten anfertigen und aufbewahren müssen, ist nichts Neues. Trotzdem gibt es in vielen Umgebungen Bedarf für eine Optimierung oder Erweiterung des Backupkonzepts. Wie dieser Artikel zeigt, gehören dedizierte Hardware, Verschlüsselung, das Befolgen der 3-2-1-1-0-Regel und nicht zuletzt die Wahl des richtigen Backupspeichers zu den Grundpfeilern einer überlegten Sicherungsstrategie.
Viele Unternehmen betreiben mittlerweile einen sehr großen Teil ihrer Infrastruktur virtuell. Dies können klassische virtuelle Maschinen, Container oder eine Mischung aus beidem sein. Egal, wie Ihre Umgebung aussieht: Sie sollten möglichst ein oder mehrere dedizierte Backupsysteme betreiben. Dies verschafft Ihnen den Vorteil, dass Sie selbst bei einem Komplettausfall der virtualisierten Landschaft immer noch auf Ihre Sicherung zurückgreifen können.
Dies ist nicht nur Theorie. So hatte der Autor dieser Zeilen unlängst einen Supportfall, wo es bei einem VMware-Cluster mit angeschlossenem SAN-Storage zu einem Ausfall inklusiv Datenverlust kam. Nachdem die verantwortlichen Personen sich einen Überblick verschafft hatten, begann die Wiederherstellung – zumindest war das der Plan. Denn genau in diesem Moment stellten sie fest, dass der Backupserver ebenfalls ausgefallen war. Letztendlich mussten die Admins erst einen komplett neuen Server aufsetzen, auf ihm die Backupsoftware installieren, die Lizenzen einspielen und die Sicherungsdaten importieren.
Erst nach all diesen Schritten war die IT in der Lage, die Wiederherstellung der wichtigsten VMs zu starten. All diese Maßnahmen trieben die Zeitspanne, bis die VMs wieder einsatzbereit waren, enorm in die Höhe. Dies wäre nicht passiert, wenn das Backup außerhalb der virtuellen Infrastruktur gelagert worden wäre.
Viele Unternehmen betreiben mittlerweile einen sehr großen Teil ihrer Infrastruktur virtuell. Dies können klassische virtuelle Maschinen, Container oder eine Mischung aus beidem sein. Egal, wie Ihre Umgebung aussieht: Sie sollten möglichst ein oder mehrere dedizierte Backupsysteme betreiben. Dies verschafft Ihnen den Vorteil, dass Sie selbst bei einem Komplettausfall der virtualisierten Landschaft immer noch auf Ihre Sicherung zurückgreifen können.
Dies ist nicht nur Theorie. So hatte der Autor dieser Zeilen unlängst einen Supportfall, wo es bei einem VMware-Cluster mit angeschlossenem SAN-Storage zu einem Ausfall inklusiv Datenverlust kam. Nachdem die verantwortlichen Personen sich einen Überblick verschafft hatten, begann die Wiederherstellung – zumindest war das der Plan. Denn genau in diesem Moment stellten sie fest, dass der Backupserver ebenfalls ausgefallen war. Letztendlich mussten die Admins erst einen komplett neuen Server aufsetzen, auf ihm die Backupsoftware installieren, die Lizenzen einspielen und die Sicherungsdaten importieren.
Erst nach all diesen Schritten war die IT in der Lage, die Wiederherstellung der wichtigsten VMs zu starten. All diese Maßnahmen trieben die Zeitspanne, bis die VMs wieder einsatzbereit waren, enorm in die Höhe. Dies wäre nicht passiert, wenn das Backup außerhalb der virtuellen Infrastruktur gelagert worden wäre.
Besser auf dedizierter Hardware
Der größte Fehler im beschriebenen Aufbau war, dass die Backupinfrastruktur für das Cluster im Cluster lief. Bei der Installation und Einrichtung der Systeme wurde dies vom damaligen Dienstleister so geplant, verkauft und eingerichtet. Dieser hat seinem Kunden "zu 100 Prozent" versichert, dass ein VMware-HA-Cluster niemals und unter keinen Umständen ausfällt und dass es überhaupt kein Problem darstellt, alle wichtigen Systeme zur Administration, zum Backup und zum Monitoring der Umgebung in genau diesem Cluster laufen zu lassen. Doch selbst das stabilste System kann in die Knie gehen – dazu muss nur der Strom lang genug wegbleiben oder es einen Wassereinbruch, ein Feuer oder einen Flugzeugabsturz geben.
Als es zum erwähnten Ausfall kam, verabschiedeten sich neben den produktiven VMs auch Backup und Monitoring. Dies führte dazu, dass die IT-Abteilung erst einmal im Dunklen stand und überhaupt nicht wusste und nachgucken konnte, was überhaupt ausgefallen war. Als sich die Verantwortlichen ein erstes Bild machen und den Zustand der Systeme betrachten wollten, stellten sie fest, dass eine Administration per vCenter nicht möglich war, da das Werkzeug ebenfalls nicht zur Verfügung stand. Sie sollten deshalb alle relevanten Systeme für Administration, Überwachung sowie Backup und Restore auf eigener Hardware betreiben.
Ebenso sollten Sie Ihre Sicherungen niemals ausschließlich auf dem gleichen Storage-System wie die produktiven Daten ablegen. Dies klingt zunächst einmal logisch, wird in der Praxis aber oft nicht umgesetzt. Je nach Art von Speichersystem nutzen Admins die Möglichkeit eines Snapshots, um schnell und einfach Abbilder der Daten und VMs zu erzeugen und diese dann nachgelagert wegzusichern. Die Vorgehensweise allein stellt kein Problem dar, Sie sollten aber gewährleisten, dass Ihre Backupdaten auf mindestens einem zweiten System liegen.
Backupdaten geschützt aufbewahren
Im beschriebenen Supportfall hatten die IT-Verantwortlichen das Glück, dass sie die erzeugten Backupdateien wieder einlesen und nutzen konnten. Es ist leider nicht bei allen Backupprodukten die Regel, dass sich der Hersteller um diese Universalität kümmert und bemüht. Denn eine Sicherung sollte auch dann noch nutzbar sein, wenn die ursprüngliche Installation beziehungsweise der ursprüngliche Server nicht mehr verfügbar ist. Ist dies nicht der Fall, steigt die Anforderung an die Backupinfrastruktur extrem und Sie müssen stets daran denken, eine Sicherung des Backupservers selbst zu machen, um überhaupt wieder an die Daten zu kommen. In so einem Fall sollten Sie sich überlegen, ob Sie nicht auf ein anderes Produkt wechseln.
Sie sollten Ihre Backupinformationen zudem nach Möglichkeit immer verschlüsselt speichern. Dadurch schützen Sie diese bei einem Transport außerhalb Ihrer Infrastruktur, zum Beispiel auf Bändern oder bei der Speicherung bei einem Cloudanbieter. Da Ihr Backup meist alle wichtigen Informationen und Daten beinhaltet, sind Sicherungen für einen Angreifer Gold wert. Dies beginnt bei den Dateien auf dem Fileserver, die Betriebsgeheimnisse enthalten, den Datenbanken mit allerlei wichtigen Informationen und endet beim Active Directory. Sollte es einem Angreifer gelingen, eine Kopie Ihres AD zu bekommen, könnte er ungestört und ohne Zeitdruck eine Attacke fahren und versuchen, die Kennwörter von interessanten Konten zu knacken. Da es sich um eine Offline-Attacke handelt, haben Sie sie nicht auf dem Radar und keine der vorhandenen Schutzmechanismen im AD greift.
Nutzen Sie Verschlüsselung, dann behalten Sie unbedingt das gesetzte Kennwort im Auge. Denn würde jemand das Kennwort zur Verschlüsselung der Backupdaten ändern und Sie bekommen diese Änderung nicht mit, hätten Sie zwar Backups, könnten sie aber nicht wiederherstellen, weil Sie das Kennwort nicht besitzen. Bild 1 zeigt die Verschlüsselung in Veeam Backup & Replication mitsamt einer Info, wann das Passwort zuletzt geändert wurde.
Bild 1: Zu den Essentials einer Backupsoftware – hier Veeam Backup & Replication – sollte die Option gehören, die Sicherung zu verschlüsseln.
3-2-1-1-0 erklärt
Wenn es um die Anzahl der Backups und deren Aufbewahrung geht, ist viel von der 3-2-1-Regel zu lesen. Sie bedeutet, dass Sie mindestens drei Kopien Ihrer Daten haben, sie auf zwei unterschiedlichen Medien sichern und eines der Medien an einem zweiten Standort verfügbar ist. Diese Vorgabe hat sich, insbesondere durch die Themen Ransomware und Hackerangriffe, ein wenig erweitert. Mittlerweile empfiehlt es sich, die zu prüfenden Faktoren ein wenig auszubauen. Wir sind deshalb mittlerweile beim Konzept 3-2-1-1-0 angekommen.
Sie sollten weiterhin drei Kopien Ihrer Daten besitzen. Dies können die Live-Daten plus zwei weitere Kopien sein, es schadet aber auch nicht, wenn Sie die Live-Daten nicht mit einrechnen und drei weitere Kopien besitzen. Je mehr Sie anfertigen, desto teurer und aufwendiger gestaltet sich jedoch Ihr Backupkonzept. Je nach Art der Medien und Sicherungsstrategie haben Sie dann aber eventuell in einer Notfallsituation mehr als eine Kopie, mit der Sie eine Wiederherstellung erfolgreich durchführen können. Denn hängt im schlimmsten Fall alles von der einen, übrig gebliebenen Kopie ab, führt das wiederum zu zusätzlichem Druck und Erfolgszwang.
Sie sollten Ihre Backups grundsätzlich auf mindestens zwei unterschiedlichen Medien abspeichern. Dies verhindert den Ausfall von mehreren Kopien zur gleichen Zeit. Die Chance dafür ist zwar recht gering, sollte aber trotzdem einkalkuliert werden. Ende 2019 etwa gab es bei SSDs von HPE das Problem, dass durch einen Fehler in die Firmware die Datenträger nach einer Laufzeit von 32.768 Stunden den Betrieb eingestellt haben. Wären alle Sicherungen auf dieser Art von Datenträger gespeichert, würden alle Kopien gleichzeitig ins Nirvana verschwinden.
Es kann hier sinnvoll sein, unterschiedliche Arten von Speicher zu verwenden, eventuell auch bewusst von zwei verschiedenen Herstellern. Landen Ihre Primärdaten auf einem eigenen Backupserver mit angeschlossenen Festplatten, wäre eine Kopie dieser Daten auf einen NAS-Speicher, eine Deduplication-Appliance, ein Linux-Backup-Repository oder einen Cloudspeicher möglich. Wir sprechen im weiteren Verlauf noch über die unterschiedlichen Möglichkeiten und Empfehlungen.
Speichern Sie eine der Kopien immer an einem anderen Standort. Die Entfernung zwischen dem primären und dem sekundären Standort hängt davon ab, wo sich diese befinden, wie hoch das Risiko eines Datenverlusts ist und wie wichtig Ihnen die Daten sind. Befinden Sie sich beispielsweise in einem Gebiet, das ein hohes Risiko für Schäden durch Umwelteinflüsse hat, sollten Sie die Entfernung deutlich höher setzen als in gemäßigten Bereichen. Wir erleben in den letzten Jahren immer mehr Katastrophen und Natureinflüsse, die bis dato niemand so recht auf dem Plan hatte.
Haben Sie nur einen Standort und wollen die Daten trotzdem mit einer möglichst großen Entfernung in Sicherheit bringen, bieten sich Cloudspeicher- oder RZ-Anbieter an. Wenn Sie Ihre Informationen, zusätzlich zu Ihrem lokalen Backup vor Ort, noch einmal auf einen Cloudspeicher kopieren, liegt dieser im besten Fall mehrere 100km weit entfernt. Bei Bedarf könnten Sie sogar auf einen anderen Kontinent gehen. Sind Sie kein Fan von Cloudspeicher, wäre auch der Betrieb von eigener Hardware in einem professionellen Rechenzentrum möglich. Hier wird Ihnen von Rackspace über Strom und Kühlung bis hin zu einer Internetanbindung alles gestellt, Sie müssen sich dann allerdings selbst um die Systeme kümmern. Damit wäre aber gewährleistet, dass Sie die vollständige Hoheit über Ihre Daten haben.
Eine weitere Möglichkeit wäre auch die Nutzung klassischer Tapes, die Sie täglich auswechseln und zu einem zweiten Standort bringen, zum Beispiel einem Bankschließfach. Dies bringt aber wieder manuelle Tätigkeiten mit sich, die anfällig für Fehler sind. Egal wo und wie Sie diese Anforderung lösen: Die Ablage der Sicherung an einem zweiten Standort ist Pflicht und sollte keinesfalls vernachlässigt werden.
Die zweite 1 ist hinzugekommen, um Ihre Daten vor Angriffen mit Verschlüsselung zu schützen. Sie besagt, dass Sie mindestens eine Kopie Ihrer Daten offline aufbewahren sollten. Dies hat den Hintergrund, dass Angreifer teilweise sehr viel Zeit haben, sich in Ihrer Infrastruktur umzusehen und sich ein Bild davon machen können, wo und wie Sie Ihre Backups erzeugen und speichern. Sind die Sicherungen grundsätzlich immer online und jederzeit verfügbar, lassen Sie sich auch jederzeit löschen, manipulieren oder verschlüsseln. Diese Art von Sicherung wird häufig als "Air-gapped Backup" bezeichnet, das heißt zwischen Ihrer IT-Infrastruktur und den Sicherungen muss Luft sein – es darf keine technische Verbindung geben.
Nicht zuletzt sollten Sie Ihre Backups regelmäßig überwachen und testen. Alle konfigurierten Jobs müssen fehlerfrei laufen – die Null am Ende unserer Regel. Tun Sie das nicht, sollten Sie so schnell wie möglich prüfen, warum ein Fehler vorliegt, und diesen dann beheben. Oft kommt es zu einem Datenverlust, weil sich die Verantwortlichen nicht um Fehler- oder Warnmeldungen kümmern und sich kurz danach Ausfälle einstellen. Der zweite Punkt, der hierbei zu beachten ist, ist die Verifikation der Sicherungen selbst. Ein Backup ist nur dann etwas wert, wenn Sie mit den Daten auch eine erfolgreiche Wiederherstellung starten können.
Diese Überprüfungen lassen sich in einigen Werkzeugen automatisieren. Sie können also etwa Ihre VMs nachts automatisiert in einer Sandbox wiederherstellen. Danach werden Dienste oder Applikationen innerhalb der VMs geprüft und im Anschluss wird die Sandbox wieder abgerissen. Sie erhalten einen ausführlichen Bericht darüber, ob der Vorgang erfolgreich war oder nicht. Hat alles funktioniert, haben Sie die Gewissheit, dass Ihr Backup im Notfall auch einsatzbereit und funktional ist. Gibt es Fehler oder Probleme, können Sie Ihre Sicherungsjobs direkt anpassen oder korrigieren, ohne dass Sie den Fehler erst dann feststellen, wenn Sie produktive Daten wiederherstellen müssen und es zu spät ist.
Immutable Backup
Um die erzeugten Backups sicher und ohne die Möglichkeit eines ungewollten Zugriffs abzulegen, gibt es mehrere Techniken und Möglichkeiten. "Immutable" beschreibt keine spezielle Art von Hardware, sondern eher eine Art von Datenablage. Ziel hierbei ist es, dass sich geschriebene Backups für einen definierten Zeitraum nicht verändern lassen – es sei denn die Angreifer erhalten Zugriff auf die Hardware beziehungsweise das Backend und zerstören die Systeme über diesen Weg.Nutzen Sie lokalen Speicher, sollten Sie an diesen hohe Sicherheitsanforderungen stellen. Je weniger Verbindungen Sie auf das System erlauben, desto schwieriger fällt ein unerwünschter Zugriff. Verbindungen etwa per SSH sind, sofern sie korrekt eingerichtet sind, zwar grundsätzlich sicher, es kann aber immer vorkommen, dass es Lücken im Protokoll gibt, über die sich eine Verbindung aufbauen lässt. Ist eine Anmeldung am Server grundsätzlich nur vor Ort an der Konsole möglich, erschwert dies die Administration, sorgt aber auch für deutlich mehr Sicherheit. Gleiches gilt bei BMC-Karten, über die eine Remoteverwaltung möglich ist.Nutzen Sie Cloudspeicher, der Ihre Daten immutable ablegt, sollten Sie die Konten unbedingt mit einmaligen Kennwörtern versehen und einen zweiten Faktor zur Anmeldung konfigurieren.
Lokaler Speicher mit Vorteilen
Es gibt viele Möglichkeiten, wie Sie Ihre Backups speichern. Dies beginnt mit lokalen Datenträgern im Backupserver und endet mit hochverfügbaren und skalierbaren SAN-Systemen, die sich über mehrere Racks verteilen. Wir haben in diesem Artikel bereits über die Nutzung eines dedizierten Backupservers gesprochen. Setzen Sie auf diese Variante, können und sollten Sie die Hardware so wählen, dass Sie ausreichend Datenträger verbauen können. Bei der Nutzung von 3,5-Zoll-HDDs bekommen Sie problemlos Servermodelle mit zwölf oder sogar 16 Slots und erreichen damit Kapazitäten von mehr als 200 TByte netto. Reicht dies nicht aus, können Sie zur Not ein oder mehrere externe Gehäuse anschließen, um die Menge an Speicherplatz noch einmal zu erhöhen.
Lokaler Speicherplatz hat den Vorteil, dass die Daten direkt geschrieben werden können, ohne sie erneut per Netzwerk auf einen anderen Server oder Speicher kopieren zu müssen. Dies spart Zeit und je nach Menge und Typ der Festplatten haben Sie hier einen sehr hohen Durchsatz bei der Sicherung. Dies beschleunigt das Backup und Sie können dadurch bei Bedarf mehrere Backupzeiten am Tag vorsehen, um die Abstände zwischen den einzelnen Jobs gering zu halten.
Ein weiterer Vorteil von lokalen Datenträgern ist, dass Sie mit einer Mischung aus zwei Speichertypen arbeiten können. Nutzen Sie zum einen gewöhnliche Festplatten, sind diese zwar beschränkt in der Leistung und im Durchsatz, bieten dafür aber enorm viel Platz. Aktuell sind Festplatten mit bis zu 20 TByte an Kapazität verfügbar. Um die eingeschränkte Performance von HDDs zu umgehen, lassen sich parallel noch SSD- oder sogar NVMe-Datenträger verwenden. Diese Art von Speicher hat den Vorteil, dass er extrem schnell ist, was Durchsatz und IOPS angeht. Er ist allerdings deutlich teurer als herkömmliche Festplatten, weswegen die wenigsten Unternehmen den kompletten Backupspeicher damit ausrüsten.
Hier kommt nun die Mischung beider Datenträger zum Einsatz: Sie betreiben einen Teil als Flash-Speicher und verheiraten diesen mit drehenden Festplatten. Durch diese hybride Konstruktion kombinieren Sie Geschwindigkeit und Kapazität. Eingehende Daten landen erst einmal auf dem schnellen Teil, also dem Flash-Speicher. Nachgelagert wandern die Informationen dann von diesem Speicherbereich auf die Festplatten. Dieser Vorgang kann zwar je nach einlaufender Datenmenge auch einige Zeit dauern, er geschieht aber im Hintergrund und beeinflusst nicht die Dauer des Backupjobs.
Achten Sie beim Sizing eines solchen Speichers immer darauf, dass der Flash-Bereich ausreichend dimensioniert ist. Schauen Sie sich an, wie groß Ihr tägliches Backup-Delta ist und wie viele GByte oder TByte es zu schreiben gilt. Der Flash-Anteil sollte mindestens diesem Wert entsprechen, damit sich im ersten Schritt sämtliche Daten schnell wegschreiben lassen. Planen Sie Ihren Server immer so, dass Sie noch nachträglich Speicher nachstecken können, sollten Ihre Backupdaten weiter anwachsen.
Ein weiterer Vorteil bei der Nutzung eines physischen Servers zur Ablage der Sicherungsdaten ist, dass Sie mit der Wahl des passenden Dateisystems eventuell beträchtlich Speicherplatz sparen können. Kommt etwa ein Windows-Server zum Einsatz, arbeiten Sie am besten mit dem ReFS-Dateisystem. Dieses legt doppelte Blöcke nicht doppelt ab, sondern der zweite Block verweist auf den ersten. Dies spart Stauraum insbesondere beim Ablegen von Backups, da bei wöchentlichen Vollsicherungen ein großer Teil der Backupdaten identisch ist.
Nutzen Sie einen Server auf Linux-Basis, stehen auch hier sehr gute und robuste Dateisysteme zur Verfügung, zum Beispiel XFS. Je nach Art der eingesetzten Backupsoftware lässt sich mit einem Linux-System auch ein Immutable-Backup-Target einrichten, worauf wir im Kasten "Immutable Backup" genauer eingehen.
Bild 2: Ein Objektspeicher-Bucket mit 2,6 TByte an genutztem Speicherplatz, der in über 15 Millionen Dateien aufgeteilt ist.
NAS- und SAN-Systeme
Gerade in KMU-Umgebungen kommen oft NAS-Systeme zum Einsatz, die Speicherplatz im Netzwerk bereitstellen. Geräte von Synology und QNAP sind hier bekannt und häufig vertreten. Diese Art von Speicher ist recht günstig und lässt sich schnell in Betrieb nehmen. Bedenken Sie jedoch, dass je nach Modell und Typ der Hardware die Systeme mit der Annahme großer Datenmengen manchmal überfordert sind und es zu Datenverlust kommen kann. Um dies zu vermeiden, sollten die Systeme über ausreichend Leistung verfügen, was sich dann wiederum im Preis widerspiegelt.
Die Hardware ist bei professionellen Geräten also deutlich leistungsfähiger als im Consumer- oder Prosumer-Bereich und letztendlich haben Sie eine Serverhardware mit redundanter Stromversorgung, Server-CPUs und ECC-RAM im Einsatz. Hier wäre zu überlegen, ob Sie nicht direkt einen Server kaufen, der Speicherplatz von lokalen Festplatten über einen guten RAID-Controller oder über ein Software-Storage-Konstrukt bereitstellt. Hier wäre dann auch die bereits angesprochene hybride Variante möglich.
Bei sehr vielen zu speichernden Daten kommen häufig eigene SAN-Systeme zum Einsatz. Diese haben den Vorteil, dass Sie sehr gut skalieren und – je nach Modell – Speicherplatz von multiplen PBytes zur Verfügung stellen können. Dies hat natürlich seinen Preis und die Anschaffung solcher Systeme ist meist mit einer hohen Investition verbunden.
Die SAN-Variante spiegelt die Daten zudem meist über zwei Standorte hinweg, damit der Ausfall von einem Standort beziehungsweise Serverraum nicht zum Verlust der gesamten Sicherungsdaten führt. Diese Redundanz lässt sich über mehrere Wege abbilden. Professionelle SAN-Systeme bieten fast immer die Möglichkeit an, sich intern um die Replikation der Daten zu kümmern. Das Backupwerkzeug sieht dann nur ein logisches Ziel für die Ablage der Sicherungen, die Informationen werden dann aber physisch auf mehrere Bereiche verteilt und kopiert.
Sie sollten sich hier vorab genau überlegen, ob Sie auf die interne Replikation setzen oder ob Sie zwei unabhängige Speichersysteme aufbauen und dann über Ihre Backupsoftware für eine Kopie beziehungsweise Replikation der Daten sorgen. Letzteres hat den Vorteil, dass die beiden SAN-Systeme unabhängig voneinander laufen und der Ausfall einer Seite nicht dazu führt, dass das gesamte System nicht mehr zur Verfügung steht. Kommt es allerdings zu korrupten Backupsätzen, würden diese kaputten Daten direkt auch auf das System am zweiten Standort übertragen, und beide Sicherungen wären unbrauchbar. In den meisten Fällen agieren die beiden Standorte unabhängig voneinander und die Sicherungen werden mittels geeigneter Backupsoftware auf beide Systeme übertragen.
Objektspeicher immer populärer
Diese Art von Speicher ist noch relativ jung. Bekannt wurde er durch Amazon Web Services, hier wird er als Amazon S3 vermarktet. Neben AWS bieten auch viele andere Dienstleister S3-kompatiblen Speicher an, der sich für die Ablage von Backups nutzen lässt. Sie können diese Art von Speicher nicht nur online erwerben und nutzen – diverse Storage-Hersteller bieten auch Hardware an, mit der Sie sich vor Ort einen Objektspeicher aufbauen können und somit die Hoheit über Ihre Informationen behalten.
Die Funktionsweise ist einfach: Sie erstellen einen Speicherbereich, meist als Bucket bezeichnet. Diesen binden Sie in Ihrer Backupsoftware mit ein und Ihre Sicherungen laufen dann in diesen Bucket. Diese Art von Speicher skaliert sehr gut und Sie können eine nahezu unbegrenzte Datenmenge sichern. Die eingehenden Daten werden in viele kleinere Dateien aufgeteilt und dann weggeschrieben.
Bei AWS können Sie maximal 5 TByte pro Datei ablegen, allerdings ist die Anzahl dieser Dateien nicht limitiert. Sie müssen sich in Ihrer Backupsoftware um nichts kümmern, denn um die Aufteilung und Speicherung der Daten kümmert sich der Speicheranbieter beziehungsweise die Hardware-Appliance bei Ihnen vor Ort. Objektspeicher bietet je nach Anbieter auch die Möglichkeit, die Dateien immutable abzulegen. Achten Sie vor Inbetriebnahme unbedingt darauf, dass der Speicher Ihrer Wahl und Ihr Backuptool diese Funktion auch unterstützen.
Cloudspeicher: Ja, aber...
Die Nutzung von Onlinespeicher ist in den letzten Jahren recht populär geworden, nicht zuletzt wegen der oft überschaubaren Kosten und der verfügbaren Bandbreite. Ob Sie diese Art von Speicher nutzen möchten oder nicht, liegt ganz bei Ihnen. Einige Firmen setzen bereits intensiv auf ihn, andere möchten oder dürfen keine Daten bei einem Cloudanbieter speichern. Gerade bei kleineren Umgebungen gestaltet sich das Erzeugen von Backups an einem zweiten Standort dadurch aber sehr einfach. Die Sicherungsdaten werden grundsätzlich nur verschlüsselt abgelegt, somit hat der Anbieter keinerlei Einsicht in die Daten.
Kommt für Sie die Nutzung eines Onlinespeichers in Frage, beachten Sie unbedingt, dass Sie diesen niemals als einziges Sicherungsziel einrichten sollten. Die Cloudspeicherung Ihrer Backups sollte immer zusätzlich passieren, nicht ausschließlich. Sie bezahlen für diesen Service, verantworten aber nicht den Betrieb. Ihre Backupdaten könnten jederzeit durch einen Fehler oder einen Angriff gelöscht werden oder der Anbieter könnte den Betrieb einstellen. Sorgen Sie daher immer für eine weitere lokale Kopie Ihrer Daten. Je nach Größe Ihrer Sicherungen kann eine Wiederherstellung aus der Cloud auch einige Zeit in Anspruch nehmen. Käme es zu einem vollständigen Ausfall Ihrer lokalen Infrastruktur und Sie müssten alle Datensätze komplett wieder herunterladen, kann dies einige Zeit dauern, je nach Bandbreite und Verfügbarkeit.
Sie sollten bei der Wahl des Anbieters auch prüfen, wo Ihre Daten physisch liegen, mit welcher Bandbreite Sie die Daten hoch- und wieder herunterladen können und wie oft der Anbieter die Daten selbst sichert. Bedenken Sie dabei auch die Aufbewahrungsdauer Ihrer Sicherungen: Wenn Sie verpflichtet sind, die Daten zehn Jahre zu speichern, müssen Sie bei der Onlinespeicherung irgendwann sehr viel Geld bezahlen für etwas, das Sie im besten Fall niemals wieder brauchen. Hier kann die Archivierung der Daten vor Ort deutlich günstiger sein. Bei dem Wechsel des Anbieters müssen Sie gegebenenfalls den alten Account ebenfalls so lange weiterlaufen lassen, bis die Aufbewahrungsfrist überschritten ist – zusätzlich bezahlen Sie dann auch noch den neuen Anbieter.
Fazit
Beim Erstellen und Verwalten von Backups gibt es einige Dinge zu beachten. Hierzu zählt die Anzahl der Sicherungen, die automatische Validierung und die Speicherung an einem zweiten Standort. Die Nutzung von unveränderbaren Datensätzen kann Sie im Fall von Angriffen schützen. Außerdem ist ein gutes Sizing der Hardware im Vorfeld wichtig, damit Sie nicht in einen Datenverlust laufen. Widmen Sie dem Thema Backup unbedingt große Aufmerksamkeit, damit Sie jederzeit mit einer erfolgreichen Wiederherstellung von Daten dafür sorgen, den Geschäftsbetrieb aufrechtzuerhalten.