ADMIN
2022
07
2022-06-29T12:00:00
Mobiles Arbeiten
PRAXIS
052
Netzwerkmanagement
Netzwerkinfrastruktur
IT-Architekturen für IoT und 5G
Neue Datenwege
von David Walker
Veröffentlicht in Ausgabe 07/2022 - PRAXIS
IoT und 5G erfordern zahlreiche Datensammelpunkte und so sind IT-Ressourcen zunehmend verteilt. Um diese dann lokal oder in der Cloud zu verarbeiten, müssen IT-Abteilungen zunehmend Strukturen umbauen und sollten auch darauf achten, sich nicht zu fest an einen Anbieter zu binden.
Die Vielfalt der Anwendungsarchitekturen entwickelt sich rasant. Neben die On-Premises-Rechenzentren sind weitere lokale und regionale IT-Ressourcen getreten und zunehmend etablieren sich vollständig verteilte Architekturen. Einer der Bereiche mit der größten Dynamik für die Entwicklung der IT-Architekturen ist das Cloudgeschäft. Standen die Anwender in Deutschland vor wenigen Jahren der Cloud noch skeptisch bis abwartend gegenüber, so hat sich das mittlerweile geändert – die Cloud gehört heute zu den Standards der IT-Landschaft.
Vendor Lock-in in der Cloud
Was die Cloudlandschaft anbelangt, ist zu beobachten, dass große Cloudanbieter wie AWS oder Microsoft bestrebt sind, die Anwender möglichst an sich zu binden – beispielsweise durch das Angebot eines eigenen Ökosystems an Applikationen, Programmschnittstellen (APIs) und Dienstleistungen, darunter beispielsweise auch Database-as-a-Service (DBaaS). Ein solcher Lock-in liegt grundsätzlich nicht im Interesse des Anwenders und so sind im Anwenderlager Trends und Strömungen erkennbar, die darauf abzielen, Unabhängigkeit zu bewahren.
In dem Versuch, die Quasimonopole der Cloudanbieter zu überwinden, sind IT-Verantwortliche dazu übergegangen, bestimmte Anwendungsklassen differenziert abzulegen, beispielsweise Azure für die Applikationen der Office-Kategorie, Amazon Web Services (AWS) für Echtzeit-Transaktionsverarbeitung (OLTP) und die Google Cloud Platform (GCP) für Analysen.
Die Vielfalt der Anwendungsarchitekturen entwickelt sich rasant. Neben die On-Premises-Rechenzentren sind weitere lokale und regionale IT-Ressourcen getreten und zunehmend etablieren sich vollständig verteilte Architekturen. Einer der Bereiche mit der größten Dynamik für die Entwicklung der IT-Architekturen ist das Cloudgeschäft. Standen die Anwender in Deutschland vor wenigen Jahren der Cloud noch skeptisch bis abwartend gegenüber, so hat sich das mittlerweile geändert – die Cloud gehört heute zu den Standards der IT-Landschaft.
Vendor Lock-in in der Cloud
Was die Cloudlandschaft anbelangt, ist zu beobachten, dass große Cloudanbieter wie AWS oder Microsoft bestrebt sind, die Anwender möglichst an sich zu binden – beispielsweise durch das Angebot eines eigenen Ökosystems an Applikationen, Programmschnittstellen (APIs) und Dienstleistungen, darunter beispielsweise auch Database-as-a-Service (DBaaS). Ein solcher Lock-in liegt grundsätzlich nicht im Interesse des Anwenders und so sind im Anwenderlager Trends und Strömungen erkennbar, die darauf abzielen, Unabhängigkeit zu bewahren.
In dem Versuch, die Quasimonopole der Cloudanbieter zu überwinden, sind IT-Verantwortliche dazu übergegangen, bestimmte Anwendungsklassen differenziert abzulegen, beispielsweise Azure für die Applikationen der Office-Kategorie, Amazon Web Services (AWS) für Echtzeit-Transaktionsverarbeitung (OLTP) und die Google Cloud Platform (GCP) für Analysen.
Eine wichtige Rolle kommt dabei der Implementierung von Microservices zu. Die Erkenntnis, welche Vorteile Microservices bieten, ist mittlerweile bei den Anwendern angekommen. Das veranlasst immer mehr IT-Verantwortliche, diesem Ansatz zu folgen. Den maximalen Nutzen daraus erfordern jedoch hochskalierbare und cross-replizierbare Datenbanken. Als populäre Beispiele wären hier etwa MongoDB, MySQL, PostgreSQL und Yuga-byteDB zu nennen. Dass diese Datenbanken auch cloudagnostisch sein müssen, ergibt sich aus der Logik der Ausgangslage. Grundsätzlich sollten sie sogar komplett infrastrukturagnostisch sein, jedenfalls soweit das möglich ist.
Neue Anforderungen durch IoT und 5G
Der zweite wichtige Treiber des architektonischen Wandels ist das IoT. Nach gängigem Verständnis definiert sich das IoT als die Obermenge von physischen Objekten oder Gruppen solcher Objekte, die mit Sensoren, Verarbeitungsfunktionen, Software und anderen Technologien ausgestattet sind und über das Internet oder andere Kommunikationsnetze Daten mit anderen Geräten und Systemen austauschen.
Durch dessen Dynamik ändert sich die Anwendungslandschaft noch deutlicher als im Cloudmarkt. Bei der ersten Generation von IoT-Anwendungen ging es fast ausschließlich darum, die Daten von den am Rand (Edge) des Netzes platzierten Sensoren und Überwachungsgeräten in das Zentrum des Netzes zu ziehen und damit inhaltlich begrenzte Auswertungen durchzuführen. Die dabei erzeugten Datenmengen hielten sich in einem überschaubaren Rahmen. Beispiele für diese frühen IoT-Anwendungen sind Smart Meter oder Geräte zur Fernüberwachung industrieller Anlagen. Bei den neueren Entwicklungen geht es dagegen um hochgradig interaktive Pull- und Push-Anwendungen, die ganz andere Anforderungen an die Datenverwaltungsfähigkeiten stellen: verteilt, dynamisch und automatisiert.
Nach eher unscheinbaren Anfängen erfuhr das IoT durch die Propagierung des Konzepts von der Industrie 4.0 vor zehn Jahren einen großen Schub, sowohl was die Inhalte als auch was die Marktdynamik betrifft. Bereits 2019 schätzten Analysten den Umsatz mit IoT-Diensten und -Produkten auf gut 250 Milliarden US-Dollar. Seitdem hat sich die Dynamik weiter beschleunigt; eine neue, ganz andere Welle des IoT ist im Anmarsch: das mobile und vor allem das 5G-gestützte und erweiterte IoT.
Dies geht mit einer rasanten Vermehrung der Use Cases und Datenmengen im IoT einher. All das beansprucht wachsende IT-Ressourcen und Übertragungsbandbreiten. Daher stellt sich die Frage, wohin die Daten gehen und woher sie kommen. Was also ist bei dieser Form des IoT anders? Bei näherer Betrachtung zeigt sich: Sehr viel. Denn beim mobilen IoT geht es nicht mehr nur um die Datenerfassung, sondern auch um die Ausführung von Auswertungen, Steuerungsalgorithmen und Transaktionen.
Diese Transformation schafft die Grundlage für zahlreiche neue Anwendungsfälle; das Spektrum der Nutzer reicht von der Industrie bis hin zu den Endverbrauchern. Grenzen dieses Wachstums sind nicht abzusehen. Der schwedische Telekommunikationsausrüster Ericsson beispielsweise verspricht damit einen saubereren, sichereren Bergbau, vollautomatische Fabriken und vernetzte Krankenwagen, die neue, superschnelle Möglichkeiten bieten, um Patienten, Sanitäter und medizinische Experten in Echtzeit miteinander zu verbinden.
Gerade das Paradigma des vernetzten Fahrzeugs erweist sich als äußerst fruchtbar für die Schaffung zahlreicher Anwendungsmöglichkeiten, die in dieser Umgebung entstanden sind und noch entstehen. Schon vor Jahren als "Smartphone auf Rädern" apostrophiert, ermöglicht das vernetzte Fahrzeug eine Fülle neuer Anwendungen, die sich beispielsweise als App auf dem Fahrzeugrechner installieren lassen. Teilweise spielt dabei die zunehmende Automatisierung des Fahrens eine Rolle, denn sie eröffnet dem Fahrer neue Freiräume, die es mit entsprechenden Angeboten zu füllen gilt. Da diese Anwendungen zum großen Teil monetarisierbar sind, werden sie sich mit großer Wahrscheinlichkeit am Markt etablieren. Das Spektrum reicht von der gebührenpflichtigen Freischaltung spezieller Fahrzeugfunktionen bis hin zu individualisierbaren Infotainment-Angeboten, etwa interaktives Gaming.
Ein weiteres Beispiel ist die Auswertung und Nutzung bestimmter Fahrzeugdaten für kommerzielle Zwecke: Schon heute werden daraus Echtzeit-Verkehrsübersichten generiert, die von den Fahrzeugherstellern als Extra angeboten werden. Ähnliches gilt für das Reichweitenmanagement von Elektroautos. Es kombiniert Daten aus dem Inneren des Autos wie
Ladezustand der Batterie und Fahrgeschwindigkeit mit Topologiedaten, Daten zur geographischen Lage und Verfügbarkeit von Ladestationen und formt daraus einen Strom geldwerter Echtzeitempfehlungen für die Fahrer. Gemeinsames Merkmal dieser Anwendungen ist, dass sie schnelle Antwortzeiten und in der Summe eine hohe Bandbreite benötigen.
Anforderungen an die IT-Architektur
All das bewirkt einen Umbau der IT-Ressourcen: Es entsteht eine Verschiebung von der serverorientierten Speicherung und Verarbeitung der Daten hin zum Edge Computing, also der Stärkung der IT-Ressourcen an den Rand der Netze. Dazu müssen die Daten der Nutzung folgen können, nicht umgekehrt. Im Kontext der 5G-Netze wird das beispielsweise daran ersichtlich, dass in direkter räumlicher Verbindung mit den Basisstationen gleichzeitig kleine Server laufen, die die zeitkritischen Daten der mobilen Kundschaft unmittelbar verarbeiten; bewegen sich die mobilen Kunden dann in den Bereich der nächsten Basisstation, werden auch deren Daten weitergegeben, sie wandern von Server zu Server mit, um die niedrigen Latenzzeiten aufrechterhalten zu können.
Aufgrund dieser Faktoren wird die Entwicklung der nächsten Generation von Cloudanwendungen durch drei Hauptmerkmale gekennzeichnet sein: Erstens wird sich die Nutzung von Anwendungen, insbesondere von Datenbanken, auf mehrere Cloudanbieter verteilen. Darüber hinaus ist es erforderlich, Anwendungen auch über eigene Inhouse-IT-Kapazitäten zu verteilen. Auf diese Weise können Unternehmen die Verarbeitung und Speicherung näher an den Nutzer heranbringen und auf die kostengünstigste Plattform für die jeweilige Art von Workload verlagern. Unternehmen, die anbieterspezifische Datenbanken von Cloudbetreibern einsetzen, müssen diesen Ansatz überdenken. IT-Verantwortliche, die ihre zustandslosen, cloudnativen Microservices über Cloudanbieter hinweg migrieren wollen, benötigen eine Datenschicht und insbesondere eine Datenbank, die cloudübergreifend funktioniert.
Der zweite Trend betrifft vor allem international tätige Unternehmen: Sie sollten künftig drei Serverzentren in unterschiedlichen Regionen einsetzen anstelle von deren zwei. War es bisher aus Gründen der Redundanz üblich, zwei Rechenzentren zu betreiben – je ein aktives und ein passives –, sollte künftig der Einsatz von verteilten Datenbanken an drei Standorten an die Stelle dieses Konzepts treten. Fällt eins davon aus, bleiben die Dienste dennoch aktiv. Der Betrieb an drei Standorten ist nicht wesentlich schwieriger und komplexer als zwei – aber jedenfalls viel robuster. Mit den jetzt verfügbaren Technologien lässt sich das leicht umsetzen.
Dieser Dreier-Ansatz unterstützt auch die Einhaltung gesetzlicher Regelungen und die Datensicherheit besser. So ist es damit beispielsweise möglich, Daten ausschließlich in je einem von drei Zentren, beispielsweise in der EU, den USA und dem Rest der Welt zu lagern, um die gesetzlichen Vorgaben zu erfüllen, und sie gleichzeitig in einer einzigen globalen Datenbank zu speichern.
Der dritte Trend ist der Übergang zu wirklich agnostischen APIs für die Datenspeicherung. Es ist davon auszugehen, dass sich die Postgres-API für SQL-Datenbanken und Cassandra für No-SQL-Datenbanken durchsetzen wird, während sich Blockspeicherung zunehmend an der Programmiersprache S3 orientiert. Das läuft de facto auf eine Vereinheitlichung der APIs für die Datenspeicherung hinaus. Auf diese Weise verschwindet eine Barriere, die die Skalierung erschwert und Unternehmen daran hindert, zwischen verschiedenen Plattformen der Datenebene zu wechseln.
Fazit
Die genannten drei Trends sind das Ergebnis des Anwenderwunsches, ihre Architektur an die Erfordernisse des IoT anzupassen und dabei kosteneffizient zu skalieren, ohne sich an einen Anbieter binden zu müssen. Kampflos werden die Anbieter ihre Lock-in-Vorteile zwar nicht aufgeben, aber letztlich wird sich derjenige Ansatz durchsetzen, der den Anwendern mehr Unabhängigkeit verspricht.
(jp)
David Walker ist Field CTO EMEA bei Yugabyte.