Datenresilienz darf nicht verloren gehenVom Management der Speicherinfrastruktur und hin zum Management von Daten

25. September 2025

Im Laufe der Jahre haben sich die Grundzüge von Daten und des Datenmanagements massiv weiterentwickelt, um neue Wege zur Bewältigung sich ständig ändernder Anforderungen zu bieten: von relationalen Datenbanken über Data Warehouses und Data Lakes bis hin zu Lakehouses, strukturierten oder unstrukturierten Daten in verschiedenen Formaten, vor Ort oder in der öffentlichen Cloud zugänglich über viele verschiedene Protokolle. Das Ergebnis ist für viele Unternehmen, dass sie über Dutzende von Möglichkeiten verfügen, Daten zu verwalten und zu bearbeiten, um alle ihre Anwendungen, Geschäftsbereiche und Benutzergruppen zu unterstützen.

Die Einführung strenger Datenschutzbestimmungen sowie eine stärkere Fokussierung auf Datenresilienz, -sicherheit und -Governance bedeuten, dass die Analyse und Operationalisierung dieser Daten unter Einhaltung der gesetzlichen Anforderungen und internen Richtlinien zu sehr komplexen Aufgaben geworden sind.

Hinzu kommt der Aufstieg der KI in Unternehmen, die nicht nur Zugriff auf Daten in allen Formen benötigt, um ihre Versprechen zu erfüllen, sondern auch eigene Daten generiert, die verstanden, gespeichert und gesichert werden müssen.

Siloartige Speicherung ist ineffizient, anfällig und kostspielig

Wie passt die Datenspeicherung ins Bild? In vielen großen Unternehmen sind lokale Speichersysteme nach wie vor für vertikale Anwendungs-Stacks vorgesehen, die nicht nur isoliert sind, sondern auch unabhängig voneinander auf Geräte-Basis verwaltet werden.

Für diese Vorgehensweise gibt es in der Regel sehr gute Gründe, die technischer oder organisatorischer Natur sein können. Das Ergebnis ist jedoch eine Fragmentierung und Silobildung bei Daten und Verwaltung, was nicht nur ineffizient und kostspielig ist, da es oft zu einer Unterauslastung führt, sondern auch den Zugriff auf oder die Bewegung von Daten behindern kann.

Dies führt zu einer Situation, in der das Datenvolumen wächst und die Daten gleichzeitig immer unzugänglicher, schwieriger zu verwalten und anfälliger für Compliance-Risiken und Cyber-Bedrohungen werden. Das liegt daran, dass Daten, sobald sie an bestimmte Anwendungen gebunden sind, unzugänglich werden und nur noch über die native Anwendung selbst abgerufen können bzw. zusätzlich kopiert oder verschoben werden müssen.

Entwickler, Datenwissenschaftler und Benutzer müssen in Echtzeit an Datensätzen arbeiten, während sie Anwendungen erstellen und überarbeiten, Berichte und Analysen ausführen usw. Da sie nicht an einem bestimmten Ort daran arbeiten können, kopieren sie die Daten an einen anderen geeigneten Ort.

Dies ist eine gängige Praxis, die Daten außerhalb der Reichweite anderer Anwendungen und außerhalb der Best-Practice-Governance bringt. Das Ergebnis sind mehrere exponierte Kopien, über die das Unternehmen die Sichtbarkeit und Kontrolle verliert und denen die notwendige Governance und der erforderliche Schutz fehlen. Wenn eine andere Anwendung als die, für die das Speichersystem und seine Speicherbereiche bereitgestellt wurden, auf die Daten zugreifen möchte, löst dies einen umfangreichen Prozess aus, der zusätzlichen Aufwand für die Speicherverwaltung und die Möglichkeit einer unerwünschten Datenmigration mit sich bringt.

Generell lässt sich sagen, dass die übliche Anbindung von Speichersystemen an bestimmte Anwendungs-Stacks einerseits zu geschlossenen Datensilos und andererseits zu einer unkontrollierten und unüberschaubaren Verbreitung von Daten führt. Die Auswirkungen zeigen sich in erhöhten Kosten für Verwaltungsaufwand und Speicherkapazität, einer erhöhten Anfälligkeit für Cyber-Bedrohungen aufgrund einer größeren Angriffsfläche und einem Unternehmensdatenbestand, der mit Analysen und KI schwieriger zu erschließen ist, um Erkenntnisse zu gewinnen.

Haben Hyperscaler den Weg gewiesen?

Der offensichtliche Kontrast zu all dem ist die Funktionsweise in der Cloud, insbesondere bei den Hyperscalern. In diesen Umgebungen wird der Speicher abstrahiert, die Kapazität nach Leistungsstufen gepoolt und über eine einheitliche Steuerungsebene verwaltet. Dies macht die Kapazität für die Kunden der Hyperscaler leicht nutzbar und führt gleichzeitig auch zu einer sehr effizienten Ressourcennutzung für den Hyperscaler selbst.

Unabhängig davon besteht die Herausforderung darin, das abstrahierte und gebündelte Betriebsmodell in das Unternehmen zu integrieren und den Übergang vom Speichermanagement zum Datenmanagement zu vollziehen, sodass der Speicher nicht mehr als einzelne Speichersysteme verwaltet wird, sondern als einheitliche Flotte, konsistent und intelligent über die gesamte Umgebung hinweg, wodurch das Unternehmen die Datensätze unabhängig von der zugrundeliegenden Hardware verstehen und steuern kann.

Abstrahiert, richtlinienbasiert, API-gesteuert

Die nächste Entwicklungsstufe im Unternehmensrechenzentrum wird in Richtung einer solchen virtualisierten Daten-Cloud gehen. Dies kann durch die richtige Speichertechnologie und intelligente Software ermöglicht werden, die alle unter ihrer Kontrolle stehenden Ressourcen nutzen und das „Cloud-Betriebsmodell” ermöglichen kann. Eine virtualisierte Daten-Cloud benötigt eine einheitliche Steuerungsebene mit intelligenter, autonomer Datenverwaltung und -steuerung über das gesamte Informationssystem hinweg, egal ob vor Ort, in der Public Cloud oder in beiden.

API-gesteuert und richtlinienbasiert ermöglicht sie Self-Service, konsistente Abläufe, Integration in die gesamte Anwendungslandschaft und einfache Governance unabhängig von der Größe des Informationssystems, während Silos beseitigt werden. Dies steht in krassem Gegensatz zu dem immer noch sehr verbreiteten Szenario bei dem jedes Speichersystem einzeln verwaltet und manuell bedient wird.

Auf der Hardwareseite müssen Kapazität und Leistung dynamisch und transparent skalierbar sein, ohne Ausfallzeiten, Leistungseinbußen oder unnötige Datenmigrationen. Außerdem muss sie dem Unternehmen ermöglichen, verschiedene Serviceklassen anzubieten, die seinen Richtlinien in Bezug auf Leistung, Ausfallsicherheit, Sicherheit und Compliance entsprechen und von Anwendungen, Geschäftsbereichen und internen Kunden problemlos genutzt werden können, wobei alles über die verteilte Steuerungsebene koordiniert wird. Daten können dann auf richtliniengesteuerte, automatisierte und effiziente Weise problemlos gemeinsam genutzt, kopiert und verteilt werden, um den Anforderungen moderner Anwendungen und KI-Anwendungsfälle gerecht zu werden.

Wie man die Herausforderung meistert

Bislang gibt es nur einen architektonischen Ansatz, der diese Herausforderung bewältigen kann: die Enterprise Data Cloud (EDC) von Pure Storage. Die EDC vereint eine Reihe bestehender Funktionssäulen zu einer einheitlichen Datenebene mit dem Ziel, eine konsistente Erfahrung über Block, File und Object in der Speicherflotte des Kunden hinweg zu bieten, zusammen mit fortschrittlichen Datendiensten wie Snapshots, Replikation, Hochverfügbarkeit an mehreren Standorten und Anti-Ransomware-Funktionen.

Diese Funktionen stammen aus der Purity-Betriebsumgebung. Darüber hinaus liefert die Pure1 AIops-Überwachungsebene intelligente Einblicke und eine flottenweite Optimierung. Als Nächstes folgt eine einheitliche Steuerungsebene für Speicherpools mit verschiedenen Datenklassen, die durch Richtlinien verwaltet werden. Dies ist das Ergebnis von Pure Fusion, womit Daten entsprechend dem Workload-Profil bereitgestellt und bei Bedarf zwischen kompatiblen Speicherklassen verschoben werden können.

Dies ermöglicht ein Datenmanagement, bei dem der Schwerpunkt auf Richtlinien, Automatisierung und APIs liegt und nicht auf manuellen Vorgängen und der Verwaltung einzelner Speichersysteme. Schließlich nutzt Pure Storage seine As-a-Service-Funktionen in seiner Evergreen-Architektur, damit Kunden ihre Speicherflotte ohne Unterbrechungen erweitern und aktualisieren können, um sicherzustellen, dass sie immer auf dem neuesten Stand und modern ist.

Der Weg in die Zukunft

Die EDC löst die Herausforderungen fragmentierter, isolierter Speicher durch die Vereinheitlichung des Datenmanagements über Block-, File- und Object-Speicher hinweg. Mit richtliniengesteuerter Automatisierung, intelligenten Einblicken und nahtloser Skalierbarkeit verwandelt EDC die Speicherinfrastruktur in eine softwaregesteuerte, KI-fähige Plattform, die Agilität, Governance und betriebliche Effizienz gewährleistet. Kurz gesagt, das Ziel ist es, dass Kunden die Verwaltung von Speicher einstellen und mit der Verwaltung von Daten beginnen können.

Markus Grau ist Enterprise Architect im Office of the CTO bei Pure Storage.

Pure Storage

Lesen Sie auch