ADMIN

2025

09

2025-08-28T12:00:00

Storage-Management

SCHWERPUNKT

086

Datenbanken

Multi-Model-Plattformen

Datenmanagement

Datenbankmanagement

Trends im Datenbankmanagement

Zwischen SQL und Zukunft

von Ariane Rüdiger

Veröffentlicht in Ausgabe 09/2025 - SCHWERPUNKT

Die Welt der Datenbanken befindet sich im Umbruch: Neben klassischen SQL-Systemen gewinnen NoSQL- Modelle, KI-Integration und Multi-Model-Plattformen rasant an Bedeutung. Gleichzeitig steigen die Anforderungen an Sicherheit, Compliance und Effizienz. Wer heute Datenbanken verwaltet, steht vor der Wahl zwischen Konsolidierung, Automatisierung – und völlig neuen Ansätzen. Lesen Sie, welche Trends den Markt umtreiben, welche Tools neue Wege eröffnen und warum sich ein genauer Blick auf die Entwicklungen lohnt.

Die Website DB-Engines.com – seit Kurzem gehört die Plattform zum Datenbank-Toolanbieter Redgate – listet aktuell 424 verschiedene Datenbanken. Tendenz steigend. Schon diese Zahl zeigt, wie groß die Vielfalt auf dem Markt ist. Natürlich spielt nicht jede dieser Datenbanken eine zentrale Rolle. Viele fristen ein Nischendasein oder gelten längst als überholt. Trotz dominanter Platzhirsche wie Oracle entwickelt sich der Markt rasant. Datenbanken müssen sich ständig an ein technisches Umfeld anpassen, das sich kontinuierlich verändert.
Eine treibende Kraft dabei ist Open Source: Neue Anforderungen lassen sich hier oft schneller in Produkte umsetzen als bei rein kommerziellen Angeboten. Derzeit entsteht der größte Veränderungsdruck durch künstliche Intelligenz, soziale Medien und das Internet der Dinge. Diese Technologien erzeugen gewaltige Mengen unstrukturierter Daten, die klassische relationale SQL-Datenbanken nur unzureichend verarbeiten können.
Bild 1: Die Grenzen der Datenbankvielfalt im Unternehmen scheinen ausgereizt – zum ersten Mal seit einigen Jahren ist die Zahl der Anwender, die mit nur einer Datenbank arbeiten, gestiegen. (Quelle: Redgate)
Im Datenbank-Dschungel
Um dieser Herausforderung zu begegnen, sind zahlreiche Varianten sogenannter NoSQL-Datenbanken entstanden. In bestimmten Szenarien eignen sich spaltenorientierte Datenbanken besser als zeilenbasierte Strukturen. Andere Systeme benötigen lediglich ein Schlüssel-Wert-Paar zur Speicherung. Mehr als 60 Datenbanken unterstützen heute dieses Key-Value-Modell, darunter bekannte Varianten wie Redis und Amazon Dynamo.
Die Website DB-Engines.com – seit Kurzem gehört die Plattform zum Datenbank-Toolanbieter Redgate – listet aktuell 424 verschiedene Datenbanken. Tendenz steigend. Schon diese Zahl zeigt, wie groß die Vielfalt auf dem Markt ist. Natürlich spielt nicht jede dieser Datenbanken eine zentrale Rolle. Viele fristen ein Nischendasein oder gelten längst als überholt. Trotz dominanter Platzhirsche wie Oracle entwickelt sich der Markt rasant. Datenbanken müssen sich ständig an ein technisches Umfeld anpassen, das sich kontinuierlich verändert.
Eine treibende Kraft dabei ist Open Source: Neue Anforderungen lassen sich hier oft schneller in Produkte umsetzen als bei rein kommerziellen Angeboten. Derzeit entsteht der größte Veränderungsdruck durch künstliche Intelligenz, soziale Medien und das Internet der Dinge. Diese Technologien erzeugen gewaltige Mengen unstrukturierter Daten, die klassische relationale SQL-Datenbanken nur unzureichend verarbeiten können.
Bild 1: Die Grenzen der Datenbankvielfalt im Unternehmen scheinen ausgereizt – zum ersten Mal seit einigen Jahren ist die Zahl der Anwender, die mit nur einer Datenbank arbeiten, gestiegen. (Quelle: Redgate)
Im Datenbank-Dschungel
Um dieser Herausforderung zu begegnen, sind zahlreiche Varianten sogenannter NoSQL-Datenbanken entstanden. In bestimmten Szenarien eignen sich spaltenorientierte Datenbanken besser als zeilenbasierte Strukturen. Andere Systeme benötigen lediglich ein Schlüssel-Wert-Paar zur Speicherung. Mehr als 60 Datenbanken unterstützen heute dieses Key-Value-Modell, darunter bekannte Varianten wie Redis und Amazon Dynamo.
Mit Technologien wie Edge Computing oder dem Internet der Dinge wächst der Bedarf, Daten dezentral zu speichern – oft als Zeitreihen. Diese lassen sich in Echtzeit analysieren und bilden so die Grundlage für schnelle Reaktionen in verteilten Systemen. Influx und Prometheus haben sich hier etabliert. Auffällige Ereignisse landen häufig in Event Stores wie IBM db2 Event Store, EventStoreDB oder dem neuen EventSourcingDB der deutschen Softwareschmiede "the native web". Diese Datenbank basiert auf dem Datenmodell der Cloud Native Computing Foundation.
Auch für optisch darstellbare Datenbeziehungen existieren spezialisierte Produkte: Graph-Datenbanken wie Neo4j modellieren Knoten und Kanten, also Entitäten und ihre Beziehungen. RDF-Datenbanken wie MarkDB, Amazon Neptune oder GraphDB bilden Informationen in sogenannten Tripeln ab: Subjekt – Prädikat – Objekt. Das Prädikat entspricht dabei der Beziehung zwischen zwei Punkten im Graphen.
Räumliche Daten lassen sich in spatialen Datenbanken wie PostGIS oder Aerospike verwalten. Geospatiale Systeme konzentrieren sich dabei auf geografische Koordinaten und kartografische Informationen. Im Zusammenhang mit KI gewinnen Vektordatenbanken an Bedeutung. Sie speichern hochdimensionale Datenpunkte – etwa für semantische Suchen oder Ähnlichkeitsanalysen. Typische Vertreter sind Elasticsearch oder Couchbase.
Besonders zukunftsträchtig wirken Multi-Model-Datenbanken. Sie vereinen verschiedene Speicherarten unter einer Oberfläche. Redis etwa unterstützt Key-Value, Dokumente, Zeitreihen, Graphen, räumliche Daten und Vektoren. Gleichzeitig fungiert es als Suchmaschine – ähnlich wie Google oder Elasticsearch. Lange war Redis nicht mehr quelloffen, doch mit Version 8 ist der Code wieder unter der AGPLv3-Lizenz verfügbar. Multi-Model-Systeme helfen Unternehmen, ihren oft überladenen Datenbankmix zu verschlanken. Das reduziert Kosten und vereinfacht die Administration.
Datensicherheit und Compliance im Fokus
Redgate hat in seinem aktuellen Bericht "State of the Database Landscape 2025" rund 2500 Datenbankprofis weltweit zu ihren Herausforderungen und Prioritäten befragt. Ein zentrales Ergebnis: Unternehmen stufen Datensicherheit und Compliance inzwischen als unverzichtbar ein. Nur noch 14 Prozent der Befragten verzichten vollständig auf Schutzmaßnahmen für sensible Daten – im Vorjahr waren es noch 35 Prozent. Mittlerweile maskieren 38 Prozent der Teilnehmenden sensible Informationen. 33 Prozent setzen auf rollenbasierte Zugriffskontrolle (Role-based Access Control), 16 Prozent arbeiten mit synthetischen Daten anstelle echter Datensätze.
Auch beim Thema Compliance zeigt sich ein deutliches Bild – zumindest in Europa. Dort halten sich 87 Prozent der Unternehmen an die Datenschutz-Grundverordnung (General Data Protection Regulation). In den Vereinigten Staaten liegt der Anteil deutlich niedriger: Weniger als die Hälfte der Befragten beachtet Regelungen wie HIPAA oder CCPA.
Zwischen Echtzeitdaten und Datenschutz
Datenschutz und Datensicherheit stehen jedoch oft im Widerspruch zum Wunsch nach realitätsnahen Test- und Entwicklungsdaten. Nur jeweils 19 Prozent der Unternehmen aktualisieren ihre Testdaten täglich oder wöchentlich. Bei den übrigen dauert der Austausch länger – nicht zuletzt, weil die Prozesse aufwendig sind. In 35 Prozent der Firmen braucht eine Aktualisierung einen ganzen Tag oder mehr. Nur 21 Prozent schaffen sie innerhalb einer Stunde. Dabei zeigen die Zahlen: Häufige Aktualisierungen lohnen sich. Unternehmen, die ihre Testdaten regelmäßig auffrischen, verzeichnen fast halb so viele fehlerhafte Bereitstellungen wie der Durchschnitt.
Der verstärkte Fokus auf Sicherheit hat handfeste Gründe. So berichtete die Plattform "The Hacker News" am 1. April von einem Angriff auf mehr als 1500 PostgreSQL-Server, die Cyberkriminelle für verdecktes Kryptomining missbrauchten. Als Ursache vermuten Sicherheitsexperten schlecht konfigurierte Systeme. Die Attacke trifft eine besonders dynamisch wachsende Datenbankplattform – PostgreSQL verzeichnet derzeit steigendes Interesse in der Community.
Konsolidierung von Datenbanken
Ein weiterer Trend zeigt sich in der Redgate-Umfrage bei der Anzahl parallel eingesetzter Datenbanken. Erstmals seit Jahren geht der Anteil der Multi-DB-Nutzer zurück: Aktuell nutzen 74 Prozent der Unternehmen mehrere Datenbanken, im Vorjahr waren es noch 76 Prozent. Rund ein Viertel kommt inzwischen mit nur einer Plattform aus.
Gründe für die Konsolidierung sind vor allem der Wunsch nach Vereinfachung, geringere Kosten und Lizenzprobleme bei Mehrfachnutzung. Neue Datenbanken führen Unternehmen meist aufgrund steigender Anforderungen ein – 62 Prozent nannten diesen Grund, gegenüber 44 Prozent im Jahr 2023. Entsprechend hoch sind die Erwartungen an herstellerübergreifende Unterstützung: 56 Prozent der Befragten fordern Multi-Plattform-Support durch die Anbieter, 48 Prozent erwarten diesen auch von Softwaretools für das Datenbankmanagement.
Trotz des Wunsches nach Vereinfachung gestaltet sich die Abkehr von einmal etablierten Datenbankplattformen oft schwierig. Viele Unternehmen betreiben deshalb isolierte Systeme nebeneinander – sogenannte Datensilos, die Integration verhindern und hohe Kosten verursachen. Zwar bieten die meisten Hersteller Migrationstools an, diese sind jedoch meist an das eigene Ökosystem gebunden und damit wenig flexibel.
Bild 2: PostgreSQL gehört zu den großen Siegern bei Datenbank-Neueinführungen in den vergangenen zwei Jahren. (Quelle: Redgate)
Neuartige Tools für komplexe Datenbanklandschaften
Die wachsende Vielfalt an Datenbanken bringt neue Herausforderungen – etwa bei der Migration oder der Integration heterogener Systeme. Doch der Markt liefert inzwischen erste Lösungsansätze. Ein Beispiel ist das polnische Start-up Quesma, das sein innovatives Datenbank-Gateway im Winter auf einer IT Press Tour in London vorgestellt hat.
Die Grundidee: Quesma fungiert als eine Art Übersetzer. Es überführt Anfragen aus Anwendungen zunächst in ein neutrales Pipeline-Format, bevor es sie in das spezifische Format der jeweiligen Zieldatenbank konvertiert. Die Besonderheit: Quesmas Pipeline-Format passt die SQL-Syntax an eine semantisch strukturierte Ordnung der Verarbeitungsschritte an. Das reduziert Fehler und erleichtert die Verarbeitung durch IT-Systeme im Vergleich zu klassischer SQL-Syntax.
Zum Einstieg entwickelte Quesma eine Lösung für Elasticsearch als Datenquelle – ideal für Unternehmen, die etwa auf Clicksearch migrieren wollen, ohne sofort alle Daten umziehen zu müssen. Mit dem Quesma-Gateway gelingt die Migration schrittweise. Anwendungen können währenddessen auf beide Systeme parallel zugreifen. Zukünftig will Quesma weitere Quell- und Zielsysteme unterstützen. Die benötigten Regeln für Formatkonvertierungen generiert das System mithilfe von bis zu fünf verschiedenen Large Language Models. Langfristig plant das Unternehmen eine universell einsetzbare Plattform für Datenbankmigration und -abfrage. Laut Quesma verbessert sich das Verhältnis von Leistung zu Kosten dabei um den Faktor zehn.
Darüber hinaus positioniert sich das Startup als Analyse- und Visualisierungsplattform für alle angebundenen Datenbanken. Mit dem neuen Tool Quesma Charts liefert es grafisch aufbereitete Ergebnisse von Suchabfragen – ein direkter Angriff auf etablierte Lösungen wie Tableau. Nutzer von vollständig quelloffenen Software-Stacks können Quesma kostenlos einsetzen. In anderen Fällen kooperiert das Unternehmen mit den jeweiligen Datenbankanbietern, bleibt dabei aber unabhängig. Der Preis liegt bei rund 30 US-Dollar pro gespeichertem TByte und Monat.
Zentrales Management für Kubernetes-Datenbanken
Einen anderen Weg geht das Unternehmen AppsCode mit seinem Tool KubeDB. Die Software richtet sich an Kubernetes-Umgebungen und bietet eine zentrale Schnittstelle für das automatisierte Management verschiedenster Datenbanken innerhalb eines Clusters. KubeDB unterstützt nahezu alle relevanten Plattformen und Hersteller, die in der Kubernetes-Welt eine Rolle spielen.
Neben der einheitlichen Verwaltung sorgt KubeDB für Hochverfügbarkeit und Resilienz. Es ermöglicht mandantenfähige Cluster, integriert mit KubeStash ein Backup- und Restore-Tool, bietet dynamisch erweiterbare Speicher und bringt Prometheus-Monitoring inklusive Alarmfunktionen direkt mit.
Ein Self-Service-Portal mit Rollenkonzept erlaubt autorisierten Nutzern, Datenbanken eigenständig zu definieren und bereitzustellen – ohne auf die Unterstützung durch Administratoren angewiesen zu sein. Zusätzlich unterstützt KubeDB GitOps-Prozesse. Wer ein optionales Envoy Gateway einsetzt, kann auch Cluster-übergreifend auf das System zugreifen und Verwaltungsfunktionen nutzen.
Künstliche Intelligen bringt: Entlastung für Datenbankteams
Der Mangel an qualifiziertem Personal bleibt eine der größten Herausforderungen im Datenbankumfeld. Neue Tools sollen helfen, die wachsenden Anforderungen trotz begrenzter Ressourcen zu bewältigen. Laut Redgate entsteht der sogenannte Skills Gap vor allem durch fehlende Weiterbildungsmöglichkeiten. Viele IT-Fachkräfte bevorzugen aus zeitlichen Gründen Onlinekurse – 64 Prozent der Befragten nutzen diese Form der Schulung, 71 Prozent stufen sie als fachlich am wertvollsten ein.
Allerdings mangelt es an regelmäßigen Weiterbildungsangeboten durch die Arbeitgeber. 44 Prozent der IT-Profis würden sich gern wöchentlich oder monatlich fortbilden, aber nur gut ein Viertel der Unternehmen bietet entsprechende Programme an. Mehr als die Hälfte ermöglicht Schulungen nur einmal im Jahr oder noch seltener. Oft fehlt ein Weiterbildungsbudget, insbesondere für technisches Training. Viele Befragte wünschen sich außerdem bessere Tools (55 Prozent) und ein separates Budget für externe Kurse (42 Prozent).
Künstliche Intelligenz könnte helfen, den Fachkräftemangel abzufedern. Noch steht diese Entwicklung am Anfang: Erst 15 Prozent der befragten Unternehmen setzen KI im Datenbankbereich ein. Genutzt wird sie vor allem zur Codeprüfung, zur Optimierung von Abfragen und beim Design von Datenmodellen und Schemata. Wer bereits mit KI arbeitet, berichtet von konkreten Vorteilen: 47 Prozent profitieren von Automatisierung, 45 Prozent schätzen die reibungslose Verknüpfung verschiedener Aufgaben und 42 Prozent sehen eine Standardisierung im Datenbankbetrieb.
Beim Thema Sicherheit herrscht hingegen Skepsis. Noch 2023 galt diese bei 40 Prozent als Motivation für den KI-Einsatz – 2024 sank dieser Anteil auf 25 Prozent. Gleichzeitig sorgen sich nun 61 Prozent um Datenschutz und Datensicherheit (2023: 41 Prozent). 57 Prozent befürchten, dass KI-Recherchen zu ungenau ausfallen könnten – ein Anstieg um 20 Prozentpunkte im Vergleich zum Vorjahr.
Trotz aller Bedenken bleibt die Technologie vielversprechend: 70 Prozent der Befragten gehen davon aus, in den kommenden ein bis zwei Jahren mehr KI-Tools zu verwenden. Über 80 Prozent berichten bereits jetzt von gesteigerter Produktivität – der Nutzen scheint die Risiken also deutlich zu überwiegen.
Bild 3: Gemischtes Hosting – also teils beim Provider, teils on-premises – dominiert bei Datenbanken. (Quelle: Redgate)
Clouddatenbanken im Alltag angekommen
Clouddatenbanken gehören inzwischen zum Standard. Allein Amazon Web Services bietet 15 eigene Datenbankdienste an – darunter relationale, Key-Value-, Dokumenten-, In-Memory-, Graph-, Zeitreihen- und Ledger-Datenbanken. Microsoft Azure listet aktuell zwölf Datenbankservices auf seiner Übersichtsseite.
Hinzu kommen zahlreiche Drittanbieter, die ihre Produkte ebenfalls über Cloudplattformen bereitstellen. Doch bei aller Flexibilität und Skalierbarkeit bleibt ein Unsicherheitsfaktor: Die Kontrolle über Daten in politisch sensiblen Situationen. Niemand kann garantieren, dass ein Hyperscaler wie AWS oder Azure den Zugriff durch Dritte – etwa staatliche Stellen – dauerhaft verweigert, selbst wenn die Anbieter entsprechende Zusicherungen geben.
Der frühere Hype rund um Cloudhosting hat sich längst gelegt. Heute betrachten Unternehmen den Einsatz von Clouddatenbanken deutlich differenzierter. Die zentrale Frage lautet nicht mehr: "Cloud oder nicht?", sondern: "Welche Daten gehören in die Cloud – und welche Informationen besser nicht?"
Das spiegelt sich auch in den aktuellen Zahlen wider: Nur noch 30 Prozent der Befragten hosten ihre Datenbanken vollständig oder überwiegend in der Cloud – 2023 waren es noch 36 Prozent. Gleichzeitig betreiben inzwischen 34 Prozent ihre Datenbanken vorwiegend oder komplett on-premises, ein leichter Anstieg gegenüber dem Vorjahr (31 Prozent). Eine Rückkehr zum reinen Eigenbetrieb zeichnet sich dennoch nicht ab. Stattdessen planen immer mehr Organisationen ein hybrides Hosting-Modell – inzwischen 46 Prozent.
Die Vorteile der Cloud bleiben attraktiv: 70 Prozent der Befragten schätzen die Skalierbarkeit und Flexibilität (2023: 48 Prozent), 62 Prozent nennen Hochverfügbarkeit und Zuverlässigkeit (2023: 45 Prozent). Immerhin 42 Prozent sehen in Clouddatenbanken eine kosteneffiziente Lösung. Gleichzeitig mehren sich die kritischen Stimmen. 39 Prozent beklagen mangelndes Kostenmanagement, 26 Prozent äußern Bedenken beim Datenschutz, 22 Prozent sind mit der Performance unzufrieden. Gerade die politischen Risiken verunsichern viele – etwa durch den potenziellen Zugriff der US-Regierung auf Clouddaten.
Unter den Cloudnutzern bezeichnen 63 Prozent das Kostenmanagement als größte Herausforderung, gefolgt von Performance (40 Prozent) und Ressourcenoptimierung (37 Prozent). Zwar geben 59 Prozent an, über ausreichende Kompetenzen im Cloud-Datenbankmanagement zu verfügen, doch 19 Prozent fehlen diese Fähigkeiten, 23 Prozent sind sich unsicher. Investitionen fließen aktuell vor allem in Sicherheit (61 Prozent), Automatisierung (59 Prozent) und Monitoring (49 Prozent).
Europäische Cloudangebote als Alternative
Wer Datenschutz und rechtliche Sicherheit in den Vordergrund stellt, weicht zunehmend auf europäische Anbieter aus. Diese bieten Datenbanken als Plattformdienst an und orientieren sich am hiesigen Recht. Typische Beispiele sind Exoscale, IONOS oder Anbieter auf Basis des europäischen Sovereign Cloud Stack (SCS) wie Noris Network, plusserver oder die Open Telekom Cloud – siehe Artikel ab Seite 91. Der SCS bildet auch die technologische Grundlage für das europäische Dateninfrastrukturprojekt Gaia-X.
Gaia-X verfolgt das Ziel, souveräne, rechtskonforme Datenräume in Europa zu schaffen. Zwar ist der Markterfolg noch begrenzt sichtbar, doch erste konkrete Projekte existieren bereits. Die Gaia-X-Website listet elf Initiativen:
- Autowerkstatt 4.0: Plattform für den sicheren Austausch branchenspezifischer Daten und KI-Modelle im Werkstattumfeld.
- Cooperants: Fördert Digitalisierungsprozesse in der Luft- und Raumfahrt.
- EuroDAT: Etabliert einen europäischen Datentreuhänder auf Basis des Data Governance Act.
- HEALTH-X dataLOFT: Entwickelt cloudbasierte Anwendungen für die integrative Nutzung von Gesundheitsdaten unter der Leitung der Charité Berlin.
- TEAM-X: Baut ein vertrauenswürdiges Datenökosystem für medizinische Innovationen.
- iECO: Schafft einen gemeinsamen Datenraum für die Bauwirtschaft.
- Marispace: Organisiert die Verwaltung maritimer Sensordaten nach europäischen Standards.
- Merlot: Entwickelt sichere Bildungs-Datenräume.
- OpenGPT-X: Fördert europarechtskonforme Large Language Models.
- POSSIBLE: Baut ein interoperables Daten- und Serviceökosystem für den Mittelstand.
- Tellus: Vernetzt kritische Anwendungen über Unternehmensgrenzen hinweg.
Neben Gaia-X existieren bereits zahlreiche Anbieter sicherer, virtueller Datenräume. Firmen wie Ideals, SSC/Intralinks, Drooms, Brainloop, Box Data, Onehub, Firmex oder Imprima ermöglichen es, vertrauliche Daten geschützt zu speichern und ausgewählten Partnern bereitzustellen – ohne Urheberrechte zu verletzen. Auch große IT-Anbieter bewegen sich inzwischen in diese Richtung. Hewlett Packard Enterprise und Cancom Österreich bieten gemeinsam eine Lösung an, die speziell mittelständischen Unternehmen den Einstieg in sichere Datenräume erleichtern soll – durch einfache Handhabung und klare Rahmenbedingungen.
Europäische Initiativen wie Gaia-X oder der Sovereign Cloud Stack haben den globalen Datenbankmarkt bislang nur wenig beeinflusst. Ein Blick auf das aktuelle Ranking von DB-Engines.com verdeutlicht das. Zwar sagen diese Zahlen nichts über den praktischen Nutzen einzelner Datenbanken aus, wohl aber über deren öffentliche Resonanz, technische Relevanz und Popularität.
Die Plattform berechnet ihre Rangliste anhand mehrerer Kriterien: Nennungen auf Websites, Suchanfragen via Google Trends, Diskussionen auf technischen Q&A-Plattformen, Erwähnungen in Jobangeboten und weitere Parameter. Zwar spiegeln diese Werte keine Marktanteile wider, lassen aber Rückschlüsse auf das Marktinteresse zu. Diese Rangliste erscheint monatlich und vergleicht die aktuellen Werte mit denen des Vormonats und des Vorjahres.
MongoDB verliert – PostgreSQL gewinnt
Ein aktueller Fall zeigt, wie sich strategische Entscheidungen auf die Sichtbarkeit auswirken können. MongoDB hat große Teile seines Produkts kostenpflichtig gemacht und die Open-Source-Variante eingestellt. Daraufhin entstand mit Ferret ein quelloffener Nachbau, der offenbar ohne Urheberrechtsverletzung auskommt und zugleich einen offenen Standard für dokumentenbasierte Datenbanken etablieren will. Zwar droht Mongo mit juristischen Schritten – entsprechend gehandelt hat das Unternehmen bislang nicht.
Die Konsequenz: MongoDB verlor im Vergleich zum Vorjahr 19,4 Punkte im DB-Engines-Ranking. PostgreSQL dagegen legte über 27 Punkte zu. Noch größere Einbußen mussten altgediente Schwergewichte hinnehmen: MySQL büßte 49,41 Punkte ein, Microsoft SQL Server sogar 118,76 Punkte. Diese Verluste relativieren sich allerdings, betrachtet man die nach wie vor hohen Gesamtwerte.
An der Spitze hält sich Oracle souverän mit über 1200 Punkten – trotz eines leichten Rückgangs um rund zehn Punkte. Dahinter folgen MySQL mit 964 Punkten und Microsoft SQL Server mit 774 Punkten. Beide bleiben fest in den Top drei. Zwei Datenbanken konnten in die Top zehn aufsteigen: Snowflake verbesserte sich von Rang neun auf Platz sechs und IBM Db2 kletterte vom neunten auf den achten Platz. Snowflake verzeichnete im Jahresvergleich ein Plus von rund 50 Punkten, liegt mit 172 Punkten aber weiterhin deutlich hinter MongoDB (402 Punkte).
Snowflake setzt auf KI
Das Unternehmen Snowflake positioniert sich mittlerweile als "AI Data Cloud Company". Auf dem Snowflake Summit 2025 in San Francisco stellte es mehrere Neuerungen vor.
Im Mittelpunkt stand jedoch die Vorschau auf Snowflake Cortex AISQL – eine neue Erweiterung, die KI direkt in die SQL-Engine integriert. Damit lassen sich KI-Pipelines über strukturierte und unstrukturierte Datenquellen – etwa Text, Audio oder Video – mithilfe einfacher SQL-Befehle erstellen. Solche Innovationen könnten dazu beitragen, den Einsatz von künstlicher Intelligenz in Unternehmen zu vereinfachen. Gerade für Organisationen, die heute noch mit komplexen Datenpipelines kämpfen, entsteht so ein praxisnaher Zugang zur KI-gestützten Datenanalyse.
Fazit
Der Datenbankmarkt zeigt sich so vielfältig wie nie zuvor. Neben den etablierten relationalen Systemen sind inzwischen auch zahlreiche NoSQL-Datenbanken für unterschiedlichste Datenmodelle und -formate am Start. Getrieben wird diese Entwicklung durch die wachsende Datenvielfalt in Unternehmen. Jetzt zeichnet sich bereits die nächste Evolutionsstufe ab: Künstliche Intelligenz hält Einzug – sowohl in das Datenbankmanagement als auch in die Datenbanken selbst.
(dr)