Effizienz im Umgang mit Daten
12. Juli 2019Das höchste Gut für Unternehmen sind Daten. Neben Kunden- und Mitarbeiterdaten geht es um Marktdaten, Marktforschung, Kundenbefragungen und -feedback, Location Tracking, Absatzzahlen, Werbebudgets und Informationen über den Wettbewerb. Sie sind die Grundlage für strategische Entscheidungen, Marketingpläne, Innovationen und taktische Entscheidungen im Alltagsgeschäft. Darüber hinaus sind sie aber auch für die Planung interner Abläufe, die Evaluation des finanziellen Erfolgs des Unternehmens unersetzlich. Sie sind also in fast allen Abteilungen unabdingbar.
Ausschlaggebend für den Erfolg im Umgang mit den Daten ist die Geschwindigkeit, darin sind sich deutsche IT-Manager, die Pure Storage im Rahmen der MIT-Studie befragt hat, einig. 82,5 Prozent sind davon überzeugt, dass die zunehmende Geschwindigkeit, die notwendig ist, um das steigende Datenvolumen zu bewältigen, jedoch eine große Herausforderung für die Zukunft darstellt. Dabei geht es jedoch nicht nur um den technischen Aspekt.
Die inhaltliche Analyse bedeutet für Unternehmen auch enorme Kosten durch die eingebundenen Mitarbeiter. Laut 84,2 Prozent der Befragten stellt dies die Unternehmen vor organisatorische Probleme, weil sie den effizientesten Weg zur Nutzung und Analyse der Daten finden müssen.
Es gilt, nach Meinung von Pure Storage, einen Weg zu finden, der es den Mitarbeitern erlaubt, die Qualität hochzuhalten, aber gleichzeitig Zeit bei der Auswertung zu sparen. An dieser Stelle kommen Unternehmen einen neuen datenzentrischen Ansatz im Datenmanagement nicht herum.
Datensilos in Unternehmen sind ein allgemeines Problem jeder Branche. Heute verlassen sich Unternehmen noch immer auf vier inhärente, in Silos vorgehaltene Analytik-Lösungen: Data Warehouse, Data Lake, Streaming Analytics und KI-Cluster. Ein Data Hub integriert die wichtigsten Merkmale dieser vier Silos und vereinheitlicht sie auf einer einzigen Plattform.
Ein Data Hub muss nach Meinung von Pure Storage vier Schlüsselmerkmale aufweisen:
- Hoher Durchsatz bei der Speicherung von Dateien und Objekten. Backup- und Data-Warehouse-Appliances erfordern einen massiven Durchsatz für Mainstream-, dateibasierte Workloads und Cloud-native, objektbasierte Anwendungen.
- Echtes Scale-Out-Design. Die Stärke eines Data Lake ist seine native, skalierbare Architektur, die es Batch-Jobs ermöglicht, grenzenlos zu skalieren, da Software – und nicht der Benutzer – die Ausfallsicherheit und Performance verwaltet.
- Mehrdimensionale Performance. Daten sind unvorhersehbar und können mit unterschiedlicher Geschwindigkeit ankommen. Daher benötigen Unternehmen eine Plattform, die jeden Datentyp mit jedem Zugriffsmuster verarbeiten kann.
- Massiv parallel. In der IT hat es einen drastischen Wandel von seriellen zu parallelen Technologien gegeben, die das menschliche Gehirn nachahmen sollen. Die Speichertechnologie muss hier mithalten. (rhh)