Leistungsfähige Technologien zur Sicherung und Wiederherstellung sind in Zeiten steigender Abhängigkeiten von wichtigen Daten unerlässlich. Themen wie Ransomware-Attacken, Multicloud Computing und immer mehr As-a-Service-Angebote haben auch hier deutliche Auswirkungen. Der folgende Beitrag skizziert einige Entwicklungstrends und wesentliche Einsatzbereiche von Datenschutz- und Wiederherstellungstechnologien im Spiegel stetig wachsender Anforderungen.
Statistiken zeigen, dass im Durchschnitt rund 40 Prozent der Firmen, die über keine belastbaren Backup-Restore- und Disaster-Recovery-Verfahren verfügen, nach einem größeren Schadensereignis oder einer schwerwiegenden Malware-Attacke den Betrieb einstellen müssen. Um dies zu vermeiden, gilt es für IT-Abteilungen heute mehr Dinge zu bedenken als nur die klassische 3-2-1-Regel.
Schnelle RPOs und RTOs gefragt
Gerne werden Technologien vorschnell für tot erklärt, sei es das Beispiel Tape (dafür Disk) oder Disk (dafür Flash). Selbst IT-Verantwortliche unterschätzen jedoch die Beharrungskräfte von Daten, Prozessen und Anwendungen. Die Transformation hin zu modernen Architekturen unterliegt zudem menschlichen Faktoren, etwa Beharrungskräften in Bezug auf bewährte Technologien.
Andererseits zwingt die Transformation hin zu einer digitalen Ökonomie alle Beteiligten, verstärkt ihre Daten in den Mittelpunkt von geschäftlichen Aktivitäten zu stellen - und diese müssen dann stets verfügbar und vor schädlichen Angriffen geschützt sein. Bislang bewährte Backup- und Wiederherstellungs-Praktiken sind damit verstärkt auf dem Prüfstand, weil die Anforderungen an Geschwindigkeit, Flexibilität, Skalierbarkeit, Kosteneffizienz, Komplexitätsreduzierung, hochgradige Automatisierung und Benutzerfreundlichkeit zunehmen.
Statistiken zeigen, dass im Durchschnitt rund 40 Prozent der Firmen, die über keine belastbaren Backup-Restore- und Disaster-Recovery-Verfahren verfügen, nach einem größeren Schadensereignis oder einer schwerwiegenden Malware-Attacke den Betrieb einstellen müssen. Um dies zu vermeiden, gilt es für IT-Abteilungen heute mehr Dinge zu bedenken als nur die klassische 3-2-1-Regel.
Schnelle RPOs und RTOs gefragt
Gerne werden Technologien vorschnell für tot erklärt, sei es das Beispiel Tape (dafür Disk) oder Disk (dafür Flash). Selbst IT-Verantwortliche unterschätzen jedoch die Beharrungskräfte von Daten, Prozessen und Anwendungen. Die Transformation hin zu modernen Architekturen unterliegt zudem menschlichen Faktoren, etwa Beharrungskräften in Bezug auf bewährte Technologien.
Andererseits zwingt die Transformation hin zu einer digitalen Ökonomie alle Beteiligten, verstärkt ihre Daten in den Mittelpunkt von geschäftlichen Aktivitäten zu stellen - und diese müssen dann stets verfügbar und vor schädlichen Angriffen geschützt sein. Bislang bewährte Backup- und Wiederherstellungs-Praktiken sind damit verstärkt auf dem Prüfstand, weil die Anforderungen an Geschwindigkeit, Flexibilität, Skalierbarkeit, Kosteneffizienz, Komplexitätsreduzierung, hochgradige Automatisierung und Benutzerfreundlichkeit zunehmen.
Insbesondere periodische Backups, die jeweils nur einen begrenzten zeitlichen Ausschnitt liefern, sind mit der Digitalisierung auf Dauer schlecht vereinbar, falls Recovery Point Objectives (RPOs) von Sekunden und Recovery Time Objectives (RTOs) von Minuten gefordert sind. Ein betroffenes Unternehmen sollte hier idealerweise in der Lage sein, kritische Daten ab der Sekunde des Ausfalls schnell wiederherzustellen – also nicht vom letzten Backup, das bereits in der Nacht zuvor erstellt wurde.
RPO vs. RTO
Recovery Point Objective
Recovery Time Objective
RPO definiert die Zeitspanne, die im Business-Continuity-Plan den noch zulässigen Grenzwert darstellt. Wenn etwa die letzte intakte Kopie der Daten zwölf Stunden alt ist, während die RPO dafür 14 Stunden beträgt, dann würde dieser RPO-Wert dem des Business-Continuity-Plans entsprechen.
Recovery Time Objective ist die Antwort auf die Frage, wie viel Zeit nach einer Geschäftsprozessunterbrechung zur Problembeseitigung (Recovery) zur Verfügung steht.
Ransomware erfordert spezielle Verteidigung
Kritische Daten, Applikationen, IT-Infrastrukturen und Benutzer geraten immer mehr ins Ziel aggressiver Angriffe von außen. Daher gilt es, Applikationsdaten und Infrastrukturen nicht nur zu sichern, sondern gleichzeitig mit integrierten Security-Tools zu schützen. Backups sind zwar eine letzte Verteidigungslinie gegen Ransomware & Co. und weiterhin ein fast alternativloser Ansatz, um Daten zu retten, die von Angreifern verschlüsselt oder gesperrt wurden. Doch können auch Backups selbst angegriffen und unbrauchbar gemacht werden. Nur wer dann in der Lage ist, seine Daten zuverlässig, sicher und möglichst zeitnah wiederherzustellen, wird bei einem erfolgreichen Angriff weitere negative Konsequenzen abwehren können.
Eine weitere Voraussetzung ist, dass Unternehmen ihre kritischen Assets auf einer skalierbaren Plattform sichern, die zum Backup über automatisierte Recovery-Mechanismen verfügt. Damit lässt sich ausschließen, dass der Geschäftsbetrieb länger stillliegt. Auch die klassische 3-2-1-Regel gilt es weiterhin im Auge zu haben. Diese besagt, dass jede Organisation drei Kopien von kritischen Daten haben sollte, zwei davon auf verschiedenen Speichermedien und eine separat als Offline-Kopie. Mit einer Offsite-Datensicherung haben Betroffene dann eine realistische Möglichkeit, ihre Daten wiederherzustellen.
Das Thema Ransomware & Co. ist jedenfalls ein wichtiger Punkt, der weiterhin für ein Backupwerkzeug spricht, auch zusammen mit Tape als Offline-Medium und generell als "last line of defense". Die Integration von Backup und Restore mit Cybersicherheitsfunktionen zur proaktiven Angriffserkennung auf Basis von KI und Mustererkennung mittels Machine Learning und ergänzt um Blockchain-basierte Authentifizierung ist hier ein interessanter Entwicklungstrend. Hybride Cloud- und Blockchainlösungen werden die Zukunft der Datensicherung maßgeblich mitbestimmen.
Backup nicht gleich Snapshot
Ob Backups sich einfach durch Funktionen wie moderne Snapshot-Verfahren und Realtime-Datenreplikation ersetzen lassen, hängt stark von der jeweiligen Anwendungs- und Infrastrukturumgebung ab. Rekapitulieren wir: Ein Backup ist vereinfacht gesagt nur eine (redundante) Kopie von Daten, die erstellt wurde, um sie bei Bedarf wiederherzustellen. Der häufigste Einsatzweck für Backups ist dabei nicht die Vermeidung von Datenverlusten im Katastrophenfall, sondern eine rasche Wiederherstellung von Dateien, die im täglichen Betrieb versehentlich korrumpiert oder gelöscht wurden.
Backups von virtuellen Systemen sind eigenständige Datenkopien, die nicht mit der VM verbunden sind. Ein einzelner Festplattenausfall ist dann nicht gleichbedeutend mit einem kompletten Datenverlust. Weil die Backupdaten üblicherweise an einem anderen Ort aufbewahrt werden als das Original, sind sie deshalb für die Wiederherstellung im Katastrophenfall wertvoll. Im Gegensatz zu Snapshots lassen sich Backups weiter zur Aufbewahrung in die Cloud oder an einen externen Standort verschieben – als Teil einer Disaster-Recovery-Strategie. Sicherungen ermöglichen zwar nicht das Failover der gesamten Umgebung auf einen zweiten Standort oder die Cloud, falls die vorhandene IT-Infrastruktur von massiven Problemen betroffen sein sollte, aber sie können diese Recovery-Prozesse unterstützen.
Snapshots sind primär für die kurzfristige Speicherung für Development, Tests et cetera vorgesehen. Andere Einsatzszenarien sollten hingegen genau überlegt sein. Während Backupdaten dafür gedacht sind, über länger definierte Zeiträume gehalten zu werden, ist das bei Snapshots, also der Aufnahme des momentanen Zustandes eines Filesystems oder einer Datenbank zu einem bestimmten Zeitpunkt, nicht der Fall. Weil der Speicherplatz für Snapshots meist begrenzt ist, überschreiben neue Snapshots die bisherigen.
Die Technik bietet also eine flexible Sicherungsoption innerhalb des gesamten Datensicherungsprozesses, sollte aber nicht als Ersatz für eine vollständige Sicherung innerhalb von virtuellen Server- und Anwendungsumgebungen Verwendung finden. Denn mit einem Snapshot wird keine vollständige Kopie einer kompletten virtuellen Disk erzeugt. Somit lässt sich auch die betroffene Platte mit den Daten nicht wiederherstellen, wenn die beteiligten Elemente der Infrastruktur ausfallen.
Sonderfall Datenbanken
Datenbanken verwenden je nach Anwendungsfall zur Sicherung verschiedene Verfahren der Replikation oder Backups zusammen mit Snapshots, um zustandsbehaftete Daten zu verschieben. Wird eine Snapshot-basierte Sicherung als Backup über Copy Data Management (CDM) eingesetzt, kann dieses für Datenbanken nicht immer unproblematisch sein. Ein Snapshot lässt sich auch während eines Schreibvorgangs erstellen, was bei der Wiederherstellung zu einer nicht-funktionierenden Datenbank, sprich Inkonsistenzen, führen kann.
Um konsistente Backups für zustandsabhängige Anwendungen zu erhalten, wird alternativ ein Agent auf Betriebssystemebene installiert; zudem kommen Snapshot-Skripte zum Einsatz. Dies gilt sowohl für VM-basierte Verfahren als auch für Storage-Array-initiierte Snapshots. Für relationale Open-Source-Datenbankmanagementsysteme wie MariaDB gibt es Werkzeuge mit Pre-Snapshot-Skripten zum Sperren der DB-Tabellen und Post-Snapshot-Skripte zum Entsperren. Für kritische Unternehmensdatenbanken wie Microsoft SQL oder Oracle stehen zudem weitere anwendungsbezogene Sicherungsverfahren zu Verfügung.
Festzuhalten bleibt: Snapshots allein sind keine zuverlässige Methode zum Schutz von Daten und zur Wiederherstellung im Fehlerfall, für schnelle Tests oder zur Fehlersuche, aber praktisch. Backups von virtuellen Maschinen auf Image-Ebene ermöglichen niedrige RPO-Werte und bieten dem IT-Verantwortlichen mehrere Wiederherstellungsoptionen inklusive Disaster-Recovery-Funktionen, von der kompletten VM bis hin zur Wiederherstellung von Anwendungen.
Continuous Data Protection für virtuelle Umgebungen
Oftmals befinden sich Anwendungen aber gar nicht auf einer einzigen virtuellen Maschine, sondern auf verschiedenen VMs mit ganz unterschiedlichen Workloads und Anforderungen. In diesem Fall sind sie meist abhängig von anderen Applikationen, wodurch je nach Menge komplizierte Interdependenzen entstehen. Die erfolgreiche Wiederherstellung der gesamten Anwendungsketten hängt davon ab, wie konsistent und schnell sich einzelne virtuelle Maschinen wiederherstellen lassen. Potenzielle Inkonsistenzen hingegen machen die Wiederherstellung kompliziert und zeitaufwendig; Snapshots und Standard-Backupverfahren in diesen Szenarien steigern die Komplexität und erhöhen die RTO von Produktivsystemen.
Einige Anbieter positionieren deshalb kontinuierliche Datenreplikation oder Continuous Data Protection (CDP) für hochvirtualisierte System- und Anwendungsumgebungen als leistungsfähige Alternative zu periodischen Backups. CDP-Lösungen replizieren dazu jeden I/O in Echtzeit, sodass RPO-Zeiten von wenigen Sekunden erreichbar sind. Alle Änderungen werden in einem Journal (anstelle von Snapshots) gespeichert, sodass ein Zugriff jeweils auf den neuesten Zeitpunkt möglich ist – mit manchen Lösungen sogar relativ weit zurück in die Vergangenheit.
CDP-Plattformen können im Verbund mit Automatisierungstools sehr schnell Files, Anwendungen, VMs oder sogar Rechenzentrums-Infrastrukturen konsistent wiederherstellen. Einige Angebote führen dazu Disaster Recovery, Backup und Re-store und cloudbasierte Datenmobilität innerhalb eines Werkzeugs zusammen. Dieser Ansatz ist ein vielversprechender Weg, vor allem wenn er auf Basis cloudnativer Technologien und APIs schnell wachsende Bereiche wie DevOps mit Kubernetes im Unternehmen adressiert.
Disaster Recovery auch als Service
Disaster Recovery (DR) ist mehr als nur die Wiederherstellung von Daten durch ein Backup. Die übergeordnete Bedeutung eines DR-Plans besteht darin, Risiken und Ausfallzeiten zu minimieren, die Einhaltung erarbeiteter Policies zu befolgen und Ausfälle möglichst ganz zu vermeiden. Backups sind ein wichtiger Teilaspekt dieser Strategie und beziehen sich auf die Wiederherstellung bestimmter Daten.
Das konkrete Ziel eines Disaster-Recovery-Plans ist es, Kopien der relevanten Unternehmens-IT-Infrastruktur zu erstellen. Die Nutzung einer Wiederherstellungssoftware für lokale Backups reicht normalerweise zwar aus, um IT-Systeme nach Serverausfällen oder anderen Problemen wieder in Betrieb zu nehmen. Aber eine standortweite Katastrophe würde auch die Backups treffen. Ein DR-Plan muss deshalb sicherstellen, dass bei einem Ausfall die gesamte oder zumindest der kritische Teil der Infrastruktur schnell wieder betriebsbereit ist. DR-Lösungen gehen dazu auf einen vorab definierten Zeitpunkt zurück, wie zum Beispiel 15 Minuten vor der Katastrophe. Die Vorgehensweise schützt Betriebssysteme und Einstellungen, Netzwerkkonfigurationen sowie Benutzerinformationen.
Entscheidend für die Planung von RPO-Zeiten ist, wie schnell sich die Daten auf der Zielseite den jeweiligen Applikationen wieder zur Verfügung stellen lassen. Data Replication liefert aus RPO-Sicht dabei valide Werte, denn das Zielsystem repräsentiert das gespiegelte Image der Quelle. Der jeweilige RPO-Wert hängt davon ab, wie schnell die Änderungen übernommen werden können und ob eine asynchrone oder synchrone Spiegelung stattfindet.
Ein Nachteil aus Betriebs- und Kostengesichtspunkten: DR benötigt eine separate IT-Umgebung, bei der alle wichtigen Bereiche der Primärumgebung berücksichtigt sind. Mit ein Grund, weshalb inzwischen nicht nur kleinere Unternehmen mit wenig Standorten, Personal oder Know-how dazu übergehen, Anwendungen und Daten an externe Dienstleister in die Cloud zu verlagern.
Daraus ergeben sich jedoch neue Abhängigkeiten und Prozeduren wie vertragsrechtliche Aspekte oder belastbare SLA/SLO-Definitionen, die aus Verwaltungs- und Kostensicht auch nicht zu unterschätzen sind. Andererseits lässt sich ein Disaster-Recovery-as-a-Service-Zugriff auf cloudbasiertes Backup und Data Recovery vor allem sehr schnell implementieren sowie flexibel auf die eigenen Bedürfnisse und Budgets abstimmen.
Unterstützung durch die Multicloud
Im Zuge der beschleunigten Adaption von Cloudplattformen können sich Unternehmen je nach Anforderung nicht nur auf die gängigen Snapshot- oder Backupmethoden verlassen, wenn es um die Aufrechterhaltung des Geschäftsbetriebs geht. Moderne Wiederherstellungsverfahren unter Verwendung von Multicloud-Ressourcen setzen zunehmend auf die Nutzung von APIs, Microservices und Container-Technologien. Workloads und Daten lassen sich damit innerhalb mehrerer Cloudplattformen bereitstellen, ohne in die Falle proprietärer Datenformate und derer Abhängigkeiten zu tappen.
Container sind unabhängig von Hostbetriebssystemen ablauffähig. Um Daten in Multiclouds zu sichern, kann ein Container-Image zum Einsatz kommen, das bei Bedarf über die gewählten Ressourcen hinweg geteilt und bereitgestellt wird. Da alle Container über dieselbe API adressiert werden, lassen sich bei Systemausfällen die betroffenen Workloads zwischen den beteiligten Diensten relativ einfach übertragen. Da es sehr unwahrscheinlich ist, dass alle Cloudanbieter gleichzeitig von einer Katastrophe betroffen sind, existiert eine flexible Failover-Option zur Vermeidung von Datenverlusten und Ausfallzeiten.
Ein weiterer Punkt betrifft komplette Standortausfälle. Falls Array-, Anwendungs- oder zum Beispiel vSphere-Replikation zum Einsatz kommt, wird im Katastrophenfall direkt der Failover auf den DR-Standort geschalten. Allerdings kann das teuer werden, weil oft nicht nur kritische Tier-1-Daten, sondern alle damit verbundenen Dateien mitgesichert werden. Mit modernen Systemen zum Cloud Data Management lassen sich alle gängigen VMs, die während des Failovers beschädigt wurden, sofort wiederherstellen. Dies gilt auch für VMs, die keine Tier-1-Replikation verwenden. Finden hingegen Standard-backups Verwendung, müssen IT-Verantwortliche oft den Backupserver wiederherstellen und Sicherungskopien für das Restore erst indizieren. Ein modernes Cloud Data Management ermöglicht je nach Umgebung das sofortige Wiederherstellen von VMs mit einer RTO von nahezu Null.
Neue Technologien verändern Backup
Moderne Anwendungen erfordern hochflexible Backup- und Restore-Systeme, zum Beispiel im Bereich Internet of Things (IoT): Datensilos werden durch die Digitalisierung in ein vernetztes System digitaler Workflows transformiert, das Anwendern einen direkten Prozessüberblick mit Reaktionsfähigkeit in Echtzeit liefern kann. Backupsysteme, die in der Lage sind, IoT-Daten entsprechend skalierbar zu sichern, gewinnen damit an Bedeutung. Von der Unterstützung NVMe-basierten Halbleiterspeichers sollten insbesondere Fertigungsunternehmen profitieren, die infolge der zunehmenden Digitalisierung immer größere Datenmengen in kurzer Zeit sichern und im Fall von Hardwareschäden oder Malware-Attacken ohne lange Stillstandzeiten schnell wiederherstellen müssen. Erste Werkzeuge am Markt erlauben bereits eine Bit-genaue Sicherungsdatei sämtlicher produktionsrelevanter Daten, unabhängig vom Betriebssystem. Mittels Verschlüsselung kann die weitere Ablage der Sicherungsdatei dann in der Cloud erfolgen, während Backup und Restore automatisch ablaufen.
Ein weiteres Beispiel sind DevOps, Docker, Kubernetes & Co: Im Zusammenhang mit Persistent Storage, Stateless Containers und Backup/Recovery kommen Anforderungen auf IT-Teams zu, die spezielles Know-how sowie moderne Wiederherstellungstechnologien verlangen. Auch Objektspeicher-Produkte in Kombination mit Cloud-Computing-Technologien sind im Zusammenhang mit der Datensicherung zu evaluieren. Vor allem wenn es darum geht, die mitunter hohen Kosten für die Wiederherstellung und revisionssichere Archivierung von unstrukturierten Daten im Multi-PByte-Umfeld zu adressieren.
Oder nicht-relationale NoSQL-Datenbanken: Data Management und Data-as-a-Service sind stark im Kommen. Unternehmen setzen dabei verstärkt auf NoSQL und Apache Cassandra, MongoDB sowie In-Memory-Systeme wie Redis und Analytics; aber auch Splunk ist ein Beispiel. Parallel findet die beschleunigte Migration von Anwendungsentwicklung und Daten in die Cloud statt. Während es sich bei Ersterem primär darum dreht, die Anwendungen über klassischen Cloud-SQL-Datenspeicher zu bedienen, arbeiten cloudnative Anwendungen mit cloudnativem NoSQL in AWS sowie nicht-nativen NoSQL-Speichern wie von DataStax oder MongoDB Atlas.
Diese Apps sind verteilt und hochskalierbar. Parallel dazu kommt es zu Investitionen in lokale Rechenzentren. Bei hybriden Cloud-Deployments müssen NextGen-Anwendungen und Datenbanken somit in Clouds mit lokalen On-Premises- oder Private-Cloud-Rechenzentren zusammenarbeiten. Der Bedarf an skalierbarer Sicherungsleistung, um nach der Datenmigration in die Cloud auch alle damit verbundenen Restore- und Compliance-Anforderungen zu adressieren, wird also steigen.
Fazit
Unternehmen sollten in der Lage sein, auch neue Datentypen-, Formate und Bereitstellungsmodelle wie Multicloud-Ressourcen effektiv zu kontrollieren und zentral zu verwalten. Eine moderne Backup- und Wiederherstellungsinfrastruktur muss darauf ausgerichtet sein, den Anforderungen an einen Always-on-Betrieb im Rechenzentrum, der Cloud, in Edge-Umgebungen, das Erkennen von Ransomware sowie automatisiertes Verwalten von mehrfachen Sicherungskopien in der Public Cloud nachzukommen. Viele Unternehmen setzen deshalb bereits mehrere Werkzeuge ein, was neben den unbestreitbaren Vorteilen einzelner Anbieterangebote allerdings auch wieder Herausforderungen in Bezug auf die Verwaltung, Integration und Kosten mit sich bringt.