Fachanwender fordern einen durchgehenden Datenfluss in verteilten Infrastrukturen – ein Anspruch, der IT-Administratoren schnell vor eine kaum lösbare Aufgabe stellt. Einen Ausweg kann hier eine Data-Fabric-Strategie sein, die das Datenmanagement sehr viel leichter macht. Denn damit stehen dem IT-Team in allen Umgebungen dieselben Funktionen zur Verfügung. Das SAP-Systemhaus IGZ baute seinen Storage im Rahmen einer notwendig gewordenen Erweiterung in Richtung Data Fabric um.
Daten sind heute in der Regel weit über die Grenzen des Rechenzentrums einer Firma hinaus verteilt, dynamisch und diversifizieren sich. Zugleich wächst die Datenmenge rasant, weshalb es immer schwieriger wird, den Überblick zu bewahren und die Daten zu managen. Unter diesen Bedingungen rückt für Unternehmen der nahtlose Datenfluss in weite Ferne, wenn sie an einer klassischen Datenverwaltung festhalten. Sie benötigen vielmehr ein einheitliches Datenmanagement, das in allen Umgebungen vom Datacenter bis in die Cloud greift. Damit ein anderer, besser geeigneter Umgang mit den Daten gelingt, muss eine Firma oder Organisation in einem ersten Schritt eine Data-Fabric-Strategie entwickeln.
In der Theorie besteht eine Data Fabric aus einer übergreifenden Architektur für das Datenmanagement sowie Datenservices, die die Endpunkte in On-Premises- und Cloudumgebungen miteinander verbinden und mit einheitlichen, übergreifenden Funktionen ausstatten. Der Effekt: Die Daten lassen sich einfacher in den angebundenen Umgebungen verwalten, wodurch sich Transformationen schneller umsetzen lassen. Die konsistenten und integrierten Datenservices bieten Datentransparenz sowie den Zugriff auf und Kontrolle über Daten, für Backups und die Datensicherheit. Schließlich soll ein Data-Fabric-Konzept den IT-Betrieb dazu befähigen, hybride Cloudinfrastrukturen sowie Storage besser auszunutzen. Ob ein IT-Team mit dem neuen Datenansatz tatsächlich mehr leistet, zeigt sich in der Praxis.
Intelligente Speicherüberwachung im Datenfluss
Eine Data Fabric sorgt demnach für den gewünschten Datenfluss in einer Hybrid- sowie Multi-Cloud oder der hybriden Multi-Cloud. Es entsteht eine Dateninfrastruktur, in der sich zügig Innovationen umsetzen lassen, beispielsweise über Anwendungen für maschinelles Lernen (ML) und künstliche Intelligenz (KI). Der Einsatz von KI-basierter Software eignet sich auch, um seine Speichersysteme intelligent zu überwachen.
Daten sind heute in der Regel weit über die Grenzen des Rechenzentrums einer Firma hinaus verteilt, dynamisch und diversifizieren sich. Zugleich wächst die Datenmenge rasant, weshalb es immer schwieriger wird, den Überblick zu bewahren und die Daten zu managen. Unter diesen Bedingungen rückt für Unternehmen der nahtlose Datenfluss in weite Ferne, wenn sie an einer klassischen Datenverwaltung festhalten. Sie benötigen vielmehr ein einheitliches Datenmanagement, das in allen Umgebungen vom Datacenter bis in die Cloud greift. Damit ein anderer, besser geeigneter Umgang mit den Daten gelingt, muss eine Firma oder Organisation in einem ersten Schritt eine Data-Fabric-Strategie entwickeln.
In der Theorie besteht eine Data Fabric aus einer übergreifenden Architektur für das Datenmanagement sowie Datenservices, die die Endpunkte in On-Premises- und Cloudumgebungen miteinander verbinden und mit einheitlichen, übergreifenden Funktionen ausstatten. Der Effekt: Die Daten lassen sich einfacher in den angebundenen Umgebungen verwalten, wodurch sich Transformationen schneller umsetzen lassen. Die konsistenten und integrierten Datenservices bieten Datentransparenz sowie den Zugriff auf und Kontrolle über Daten, für Backups und die Datensicherheit. Schließlich soll ein Data-Fabric-Konzept den IT-Betrieb dazu befähigen, hybride Cloudinfrastrukturen sowie Storage besser auszunutzen. Ob ein IT-Team mit dem neuen Datenansatz tatsächlich mehr leistet, zeigt sich in der Praxis.
Intelligente Speicherüberwachung im Datenfluss
Eine Data Fabric sorgt demnach für den gewünschten Datenfluss in einer Hybrid- sowie Multi-Cloud oder der hybriden Multi-Cloud. Es entsteht eine Dateninfrastruktur, in der sich zügig Innovationen umsetzen lassen, beispielsweise über Anwendungen für maschinelles Lernen (ML) und künstliche Intelligenz (KI). Der Einsatz von KI-basierter Software eignet sich auch, um seine Speichersysteme intelligent zu überwachen.
Ein solcher Cloudservice wie etwa NetApp Active IQ erörtert Sicherheitslücken, Fehlkonfigurationen, veraltete Firmware, fehlerhafte Hardware sowie Systeme, die aufgrund von unerwartetem oder schnellem Wachstum an ihre Performance- oder Kapazitätslimits stoßen. Erkennt das Programm ein potenzielles Problem, öffnet es proaktiv einen Supportfall oder gibt dem IT-Team klare Empfehlungen, um Maßnahmen zu ergreifen. Die Storage-Administration vereinfacht sich, wenn das Dashboard eine Echtzeitüberwachung zum Zustand der Speicherinfrastruktur liefert. Eine kontinuierliche Risikobewertung ermöglicht Eingriffe, bevor sie die Systemstabilität beeinträchtigen. Bei Systemengpässen sorgt die Echtzeitüberwachung dafür, dass sich Leistungsprobleme beheben lassen, bevor es zu Ausfällen kommt. Wenn die Effizienz des Speichersystems unter dem Durchschnitt liegt, schlägt das Programm ein Upgrade vor, beispielsweise auf ein schnelleres All-Flash-System. Mit diesen Beiträgen steigen so Verfügbarkeit, Sicherheit und Performance der Storage-Umgebung.
Anwender müssen auf ihre Daten zugreifen können, wenn sie diese brauchen. Das IT-Team kann diesen Zugriff generieren, indem es den Data-Fabric-Ansatz mit einer kombinierten Storage- und Software-Plattform umsetzt. Diese vereinheitlicht und vereinfacht das Datenmanagement, das dadurch auf Hybrid-Cloud, Multi-Cloud- und hybrides Multi-Cloud-Computing und die dynamische Bewegung von Daten ausgerichtet ist. Noch weiter optimieren lässt sich der Umgang mit den Daten durch einen datenbasierten KI-Service für Speichersysteme.
IGZ erneuert Storage-Infrastruktur
Ob Hugo Boss, Linde, Migros, Sanofi oder TRUMPF – die Referenzliste der IGZ ist wie ein Who is Who in Industrie und Handel. Ob Retrofit einer SPS-Steuerung oder SAP-Implementierungen für Warehousing, Transport und Produktion – die IGZ-Projekte sind so verschieden wie die Kunden.
Die SAP-Ingenieure aus dem oberpfälzischen Falkenberg decken alle Phasen eines SAP-Projekts in Logistik und Produktion ab – von der SAP-IT-Strategieberatung über die Anlagen- und Prozessplanung bis zur Softwarerealisierung und Technikintegration mit SAP-Standardsoftware. Seit der Gründung 1999 wächst IGZ kontinuierlich und hat derzeit über 400 Beschäftigte an Standorten in Deutschland, Österreich und der Schweiz.
Die IGZ-Ingenieure arbeiten zwar direkt auf den Systemen der Kunden. Vor Ort brauchen sie dennoch schnellen, verlässlichen Datenzugriff. Das gilt vor allem für die virtualisierten SAP-Systeme für die Entwicklung, für Tests und für das eigene Projektmanagement-Tool. Umfangreichere und eine stetig wachsende Anzahl an Projekten, ein Umstieg auf die Datenbanktechnologie SAP HANA und weitere benötigte Serverleistung forderten jedoch ihren Tribut. Nur fünf Jahre nach der ersten Investition in NetApp-Technologie kam daher die Aktualisierung.
Im Detail galt es, eine Umgebung mit Arcserve Backup, IP-Telefonie, Microsoft 365, Microsoft Exchange Server, VMware, MaxDB, Microsoft SQL Server, SAP HANA, SAP S/4HANA, SAP EWM, SAP Manufacturing Execution (SAP ME), SAP Manufacturing Integration and Intelligence (SAP MII), SAP Transportation Management (SAP TM) mit neuem Storage zu versorgen. Dessen Anbindung basiert auf den Protokollen iSCSI, NFS und SMB.
Umstieg auf All Flash
IGZ entschied sich für den Einsatz von All-Flash-Technologie und erneut für NetApp. "Unsere Erfahrungen mit Net-App sind seit Jahren durchwegs positiv", so Matthias Schmidt, Teamleiter Systemadministration bei IGZ. "Den erneuten Zuschlag für NetApp gab das Konzept der Data Fabric. Diese Zukunftsperspektive konnte kein anderer Hersteller bieten. Das hat auch die Geschäftsleitung überzeugt."
Die Implementierung eines NetApp-AFF-A220-Systems samt neuem Backup verlief schnell und reibungslos. IGZ betreibt in zwei separaten Gebäuden Serverräume. Darauf verteilt sind Primär- und Backupsysteme sowie sechs VMware-ESX-Server und zirka 120 virtuelle Maschinen. Der Fileservice läuft auf Storage Virtual Machines (SVMs). Bereits wenige Stunden nach dem Einschalten war das AFF-A220-System konfiguriert und in die VMware-Umgebung für die Datenbanksysteme eingebunden. Statt die Files mühsam zu kopieren, wurden sie einfach per SVM-Disaster-Recovery-Relationships auf das neue Primärsystem repliziert. "Zur Sicherheit fand die Migration am Wochenende statt. Im Nachhinein hätte es auch eine Mittagspause sein können. Ein paar Minuten Downtime und alles lief, wie es soll", sagt Matthias Schmidt.
Beim Sizing des neuen All-Flash-Systems ergaben sich anhand der bisherigen Work-loads um den Faktor 13 höhere IOPS-Werte. Der Storage-Footprint schrumpfte von 13 auf zwei Höheneinheiten. Die Effizienz stieg um 200 Prozent. IGZ kann effektiv drei Mal so viel Kapazität belegen.
IGZ arbeitet mit der NetApp-Snapshot-Technologie für Backup und Restore und vereinfacht damit auch den SAP-Betrieb. Bei Fehlern ist der vorherige Systemstand in wenigen Minuten wiederhergestellt. Verzögerungen im Wartungs- oder Update-Zeitplan entfallen ebenso wie langwierige Support-Calls.
Data Fabric in die Cloud erweitern
Die Systeme sind in einer Data Fabric integriert, so dass IGZ Daten nach Bedarf speichern, sichern und managen kann. Die Data Fabric umfasst auch die NetApp-E-Series-Systeme, die IGZ als Teil eines mobilen Demosystems auf Messen nutzt.
Die Integration der Cloud in die Data Fabric ist bei IGZ nur eine Frage der Zeit. Die Einführung von Microsoft 365 läuft. Optionen wie NetApp Cloud Volumes ONTAP werden geprüft, um etwa die Testumgebungen der SAP-Spezialisten auf preisgünstigen Cloud-Storage zu verlagern. Auch IGZ-Kunden könnten ihre Lösungen zunächst in der Cloud testen. "Die Demonstration von Cloud Volumes ONTAP hat mich ebenso überzeugt wie die einfache Bedienbarkeit der Cloud Manager Software", sagt Schmidt. Die Implementierung von Cloud Volumes ONTAP ist bereits geplant.
NetApp Active IQ, eine KI-basierte Software für Prognose, Prävention und proaktiven Schutz, unterstützt IGZ dabei. Was sie vermag, zeigte sich, als Active IQ einen defekten Controller erkannte und automatisch eine Ersatzlieferung auslöste. Der neue Controller traf umgehend bei IGZ in Falkenberg ein – per Taxi an einem Sonntagnachmittag.
Fazit
Den Erfolg der Investition in NetApp-Produkte misst IGZ anhand der Verfügbarkeit und Zufriedenheit der User mit der Performance – beides liegt bei nahezu 100 Prozent. Nach Rücksprache mit den Fachbereichen hieß es unisono, dass die Systeme nun deutlich schneller laufen und reagieren. Gleichzeitig öffnet sich IGZ ein unkomplizierter Weg, um seinen Storage auch nahtlos in geplante Cloud-Infrastrukturen zu bringen.
(jp)
Marc Kleff ist Director Solutions Engineering bei NetApp.