ADMIN
2021
06
2021-06-01T12:00:00
Storage-Management
AKTUELL
010
Interview
Storage-Management
Interview
»Menschen können das Datenwachstum nicht mehr effektiv bewältigen«
Redaktion IT-Administrator
Veröffentlicht in Ausgabe 06/2021 - AKTUELL
Warum bereits für kleine bis mittlere Unternehmen die Zeit reif ist für eine automatisierte Speicherverwaltung, haben wir Florian Malecki, Senior Director International Product Marketing bei Arcserve, gefragt. Außerdem wollten wir wissen, wie es eigentlich mit der Datensicherheit in Kubernetes-Umgebungen bestellt ist.
IT-Administrator: Wie ist Ihre Einschätzung: Ist beim Thema Storage und dessen Management heute alles einfacher als vor zehn Jahren oder finden wir mittlerweile doch mehr Komplexität vor?
Florian Malecki: Das größte Problem beim Storage Management ist die enorme Menge an Daten, die von Unternehmen gesammelt werden. Vor nicht allzu langer Zeit war die Verwaltung von 500 TByte Daten nur für Fortune-500-Unternehmen relevant. Für Mittelständler waren so viele Daten unüblich. Das ist heute anders und solche großen Mengen von Informationen gilt es nun auch in vielen kleinen und mittleren Unternehmen zu verwalten. Die Antwort auf diese Herausforderung ist eine selbstorganisierende beziehungsweise automatisierte Speicherverwaltung, die Intelligenz und insbesondere maschinelles Lernen beim Management von Informationen anwendet. In Echtzeitanalyse entscheidet das Speichersystem selbst über die optimale Platzierung der Daten und den bestmöglichen Schutz für jedes einzelne Informationselement innerhalb eines Datensatzes. Nur so können Unternehmen mit dem explosionsartigen Wachstum der Daten Schritt halten, das einen Umfang erreicht hat, den Menschen nicht mehr effektiv bewältigen können.
Auf was sollten kleine Mittelständler, die im Bereich Personal, Know-how und Kosten nicht mit den Großen mithalten können, schon bei der Planung ihrer Speicherumgebung achten?
IT-Administrator: Wie ist Ihre Einschätzung: Ist beim Thema Storage und dessen Management heute alles einfacher als vor zehn Jahren oder finden wir mittlerweile doch mehr Komplexität vor?
Florian Malecki: Das größte Problem beim Storage Management ist die enorme Menge an Daten, die von Unternehmen gesammelt werden. Vor nicht allzu langer Zeit war die Verwaltung von 500 TByte Daten nur für Fortune-500-Unternehmen relevant. Für Mittelständler waren so viele Daten unüblich. Das ist heute anders und solche großen Mengen von Informationen gilt es nun auch in vielen kleinen und mittleren Unternehmen zu verwalten. Die Antwort auf diese Herausforderung ist eine selbstorganisierende beziehungsweise automatisierte Speicherverwaltung, die Intelligenz und insbesondere maschinelles Lernen beim Management von Informationen anwendet. In Echtzeitanalyse entscheidet das Speichersystem selbst über die optimale Platzierung der Daten und den bestmöglichen Schutz für jedes einzelne Informationselement innerhalb eines Datensatzes. Nur so können Unternehmen mit dem explosionsartigen Wachstum der Daten Schritt halten, das einen Umfang erreicht hat, den Menschen nicht mehr effektiv bewältigen können.
Auf was sollten kleine Mittelständler, die im Bereich Personal, Know-how und Kosten nicht mit den Großen mithalten können, schon bei der Planung ihrer Speicherumgebung achten?
Insbesondere für kleine Unternehmen und Mittelständler gestaltet es sich zunehmend schwieriger, ihren Bedarf an Storage und somit ihre Speicherumgebungen zu planen. Die fortschreitende Digitalisierung, Big Data und Industrie 4.0 setzen auch bei diesen Unternehmensgrößen Speicherinfrastrukturen voraus, wie man sie bis vor kurzem nur in Großunternehmen fand. Bei der Planung der Speicherumgebung ist es neben dem Konzept für das reine Speichern von Daten unbedingt erforderlich, einen Plan für die Geschäftskontinuität anzulegen. Es sollte vorab geklärt werden, wie ein Backup- und Wiederherstellungstool mit aktueller Hard- und Software zusammenarbeitet, um den Betrieb im Katastrophenfall aufrechtzuerhalten. Sicherheit beginnt mit einer IT-Umgebung, die nahtlos zusammenarbeitet. Bevor sich KMU nach Datensicherungstechnologien umsehen, sollten sie ihre aktuellen Systeme, die Prozesse, die Daten und vor allem die Prioritäten für den Notfall bewerten.
Brände im Rechenzentrum und die allgegenwärtige Gefahr durch Ransomware haben gerade in letzter Zeit wieder für Schlagzeilen gesorgt. Was sind die Grundpfeiler für Datensicherheit und welche Rolle spielt hier die Cloud?
Für die Datensicherheit gibt es einige Grundmaßnahmen: Eingehende E-Mails mithilfe von Software oder Filterservices prüfen, regelmäßige Updates der Sicherheitssoftware, kontinuierliche Funktionstests der Security-Systeme und Firewalls, Mitarbeiter schulen und regelmäßig Datensicherungen durchführen, die durch Ransomware nicht angreifbar sind. Die Cloud spielt bei der Datensicherheit eine zunehmende Rolle. Ein Cloudspeicher bietet Unternehmen schnellen Zugriff auf Offsite-Daten und ist eine zentrale Säule einer soliden Backupstrategie. Probleme mit einem Ausfall von Clouddiensten durch Störfälle wie Brände, Überschwemmungen oder Leitungszusammenbrüche sind zwar selten, aber nicht unmöglich. Auch dafür sollten IT-Verantwortliche gewappnet sein. Hier hilft in einem ersten Schritt die 3-2-1-1-Regel. Diese empfiehlt, mindestens drei Kopien der Daten aufzubewahren. Zwei Kopien sollen vor Ort auf unterschiedlichen Medien (oder auf zwei Festplatten auf unterschiedlichen Systemen) gespeichert sein. Eine dritte Kopie wird an einem entfernten Ort und eine weitere auf unveränderlichem Speicher (Appliance oder in der Cloud) aufbewahrt. Das hilft zumindest im Bereich der Daten, jedoch vielleicht nicht im Bereich von Applikationen, die extern laufen. Hierfür müssen dann unter Umständen aufwendige Failover-Tools zum Einsatz kommen.
Noch eine Frage zur Datensicherheit: Container und ihre Orchestrierungswerkzeuge wie Kubernetes werden immer beliebter. Welche Besonderheiten gilt es bei der Sicherung von Container-Daten zu beachten?
Während Container-Tools wie Kubernetes aufgrund ihrer Skalierbarkeit und Portabilität praktisch sind, können sie bei der Datensicherheit zu Problemen führen. Das hat gleich mehrere Gründe. Zunächst einmal ist eine Kubernetes-Architektur außergewöhnlich dynamisch. Container werden schnell auf- und ebenso schnell wieder abgebaut, je nach den Zielen und Spezifikationen der Entwickler. Das bedeutet, dass Container im Wesentlichen temporär sind und eine relativ kurze Lebensdauer haben. Um Container mit der Datensicherung in Einklang zu bringen, sollten Unternehmen gleich mehrere Maßnahmen ergreifen: Zunächst ist es wichtig, die Datenanforderungen für jede einzelne Container-Anwendung zu bewerten. Organisationen sollten auch sicherstellen, dass es Protokolle gibt, die verhindern, dass Container-Daten unnötig überschrieben werden. Außerdem müssen sich Firmen über die Sicherheits- und Zugriffsanforderungen jedes Containers in ihrer Umgebung im Klaren sein.
Herr Malecki, wir danken für das Gespräch!