»Eine Datenbank muss ohne umfangreiche Vorbereitungszeit funktionieren«
Redaktion IT-Administrator
Veröffentlicht in Ausgabe 06/2024 - AKTUELL
Die Datenmenge wächst und wächst und ohne planbare Skalierbarkeit stehen insbesondere länger im Einsatz befindliche Datenbanksysteme vor echten Problemen. Warum gerade der Durchbruch von KI und ML das Datenmanagement erschwert und welche Gedanken sich Organisationen vor der Nutzung von Database-as-a-Service machen sollten, haben wir mit Mathias Golombek, CTO bei Exasol, besprochen.
IT-Administrator: Welche Themen treibt Datenbankadministratoren Ihrer Erfahrung nach derzeit besonders um?
Mathias Golombek: Die Themen variieren je nach den spezifischen Anforderungen und Herausforderungen der jeweiligen Organisation. Es lassen sich jedoch einige übergreifende Trends erkennen, wie zum Beispiel das Thema Skalierbarkeit. Bis 2025 soll die weltweite Datenmenge auf 180 ZByte – knapp 200 Milliarden TByte – anwachsen. Diese enorme Menge stellt die Performance von Datenbanken vor große Herausforderungen. Legacy-Systeme geraten an ihre Grenzen, was gerade hinsichtlich des Einsatzes von KI oder ML ein Problem darstellt, da hier große und komplexe Datenmengen in höchster Geschwindigkeit verarbeitet werden müssen.
Gerade in kleineren Unternehmen gibt es zwar Datenbanken, aber nicht immer eigene Datenbankadministratoren oder Data Scientists. Wie behalten IT-Verantwortliche trotzdem den Überblick?
IT-Administrator: Welche Themen treibt Datenbankadministratoren Ihrer Erfahrung nach derzeit besonders um?
Mathias Golombek: Die Themen variieren je nach den spezifischen Anforderungen und Herausforderungen der jeweiligen Organisation. Es lassen sich jedoch einige übergreifende Trends erkennen, wie zum Beispiel das Thema Skalierbarkeit. Bis 2025 soll die weltweite Datenmenge auf 180 ZByte – knapp 200 Milliarden TByte – anwachsen. Diese enorme Menge stellt die Performance von Datenbanken vor große Herausforderungen. Legacy-Systeme geraten an ihre Grenzen, was gerade hinsichtlich des Einsatzes von KI oder ML ein Problem darstellt, da hier große und komplexe Datenmengen in höchster Geschwindigkeit verarbeitet werden müssen.
Gerade in kleineren Unternehmen gibt es zwar Datenbanken, aber nicht immer eigene Datenbankadministratoren oder Data Scientists. Wie behalten IT-Verantwortliche trotzdem den Überblick?
Entscheidend ist, dass die Datenbank ohne umfangreiche Vorbereitungszeit und engmaschigen IT-Support funktioniert. Genau das bietet Espresso AI, ein Komplettpaket mit KI-gesteuerten Self-Service-Analysen und Datenintegration, das extrem wartungsarm läuft und schnell implementiert werden kann. Dadurch können Unternehmen Datenanalysen schneller, kosteneffizienter und flexibler durchführen und sofort einen Mehrwert erzielen.
Natürlich spielt auch bei der Nutzung von Datenbanken die Cloud eine immer größere Rolle. Aber macht die Nutzung von Database-as-a-Service wirklich alles einfacher? Wie ist hier der Trend bei ihren Kunden?
Die Cloud spielt in der Tat eine immer größere Rolle. Doch Cloud-only ist nicht immer der Königsweg. Gerade in Bereichen mit sensiblen Daten, wie dem Gesundheits- oder Finanzwesen, können und dürfen bestimmte Informationen nicht in die Cloud verlagert werden. Die Daten bleiben also entweder on-premises oder befinden sich in einer hybriden Umgebung. Database-as-a-Service bietet hier sicherlich viele Vorteile, insbesondere in Bezug auf Skalierbarkeit, Flexibilität und Kostenersparnis. Unsere Kunden zeigen jedoch zunehmend Interesse an hybriden Ansätzen, die es ihnen ermöglichen, sensible Daten lokal zu behalten und gleichzeitig von den Vorteilen der Cloud zu profitieren.
»Legacy-Datenbanken geraten gerade beim Einsatz von KI und ML an ihre Grenzen.«
Wie sollte die Migration einer Datenbank in die Cloud im Idealfall ablaufen? Was sind die wichtigsten Planungsschritte vor der Migration?
Unternehmen sollten sich zunächst darüber im Klaren sein, welche langfristigen Ziele sie haben und welche Daten sie benötigen, um diese Ziele zu erreichen. Dabei spielt auch die Integration von künstlicher Intelligenz und Machine Learning eine immer wichtigere Rolle – diese Technologien sollten von Anfang an mitgedacht werden. Entscheidend für den Erfolg einer Datenstrategie ist auch die Wahl der richtigen technologischen Infrastruktur. Data-Analytics-Werkzeuge, Datenbank-Managementsysteme und Business-Intelligence-Tools müssen sorgfältig ausgewählt und integriert werden, um eine reibungslose Datenverarbeitung und
-analyse zu gewährleisten. Bei den Anbietern sollten Unternehmen darauf achten, langfristige Abhängigkeiten und versteckte Kostenfallen zu vermeiden.
Wie kann die Modernisierung der Datenverarbeitungs-Infrastruktur aussehen – allgegenwärtige Stichworte wären hier Containerisierung, Hochverfügbarkeit, künstliche Intelligenz und IoT?
Wenn wir über moderne Trends sprechen, stehen wir vor einer Vielzahl von Herausforderungen und Chancen zugleich.Containerisierung bietet die Möglichkeit, Datenverarbeitungsprozesse flexibler und skalierbarer zu gestalten. Hochverfügbarkeit gewährleistet eine nahtlose und kontinuierliche Datenverarbeitung, was besonders wichtig ist, wenn es um KI-Anwendungen geht, die hohe Anforderungen an die Infrastruktur stellen. Das Exasol AI Lab ermöglicht es Datenwissenschaftlern, die In-Memory-Analytics-Datenbank von Exasol nahtlos in ihre bevorzugten Data-Science-Ökosysteme zu integrieren. Dadurch verbessert sich die Skalierbarkeit von KI-Anwendungen erheblich, während die hohe Verfügbarkeit sicherstellt, dass Daten kontinuierlich verarbeitet werden können und KI-Ergebnisse effektiv genutzt werden können. Um die Vorteile von KI jedoch vollständig zu nutzen, ist häufig eine Modernisierung der Infrastruktur zur Datenver- arbeitung erforderlich. AI Ops ist eine weitere Schlüsseltechnologie, die Teams dabei helfen kann, effektiver und effizienter zu werden. Kubernetes und Container werden hierfür von Experten zunehmend als ideale Plattform angesehen.