Im Visier: dauerhafter WettbewerbsvorteilEine zukunftsfeste Strategie für Datenanalysen
16. April 2021Digitale Plattformen, Tools und Geräte gibt es heute schon für fast alle Lebensbereiche – und sie werden in den meisten Fällen nur zu gerne angenommen. Damit das auch in Zukunft so bleibt, müssen sich die zugrundeliegenden Management-Umgebungen für die Analyse der anfallenden Daten skalieren, dynamisch anpassen und umfassend anwenden lassen. Dazu bedarf es einer überarbeiteten Strategie.
Sobald die Schockwellen, die 2020 ausgelöst wurden, abgeebbt sind, haben die Unternehmen in den vor uns liegenden Monaten die Aufgabe, sich neu auszurichten und sich kontinuierlich auf Veränderungen anzupassen. Eine Frage, die sie dabei beantworten müssen, lautet: Wie können sie dafür sorgen, Datenanalysen in einen dauerhaften Wettbewerbsvorteil zu verwandeln, und umgekehrt vermeiden, dass diese Analysen als Flaschenhals dem eigenen Erfolg im Weg stehen?
Wenn Datenanalysen gewissenhaft, umsichtig und intelligent angewandt werden, ist ihre transformative Kraft in vielen Bereichen spürbar. Auf der Basis von Datenanalysen können bestehende Geschäftsprozesse erweitert und verbessert werden, um für die operative Exzellenz im gesamten Unternehmen zu sorgen. Nach außen hin spiegelt sich diese Exzellenz in der Fähigkeit wider, überzeugende Kundenerlebnisse auf dem Kernmarkt eines Unternehmens und in der gesamten Lieferkette zu bieten. Und für die Zukunft ermöglicht derselbe positive Effekt dem Unternehmen, innovativ zu sein und Initiativen zur Weiterentwicklung oder Neuausrichtung des Geschäfts zu starten.
Natürlich gelingt das nicht wie von Zauberhand. Kein Unternehmen kann einfach in neue Server, Systeme und Endgeräte investieren und sich daraufhin für datenzentriert erklären. Daten bieten zweifelsohne Chancen, sie sind jedoch auch eine Herausforderung. So schätzt die International Data Corporation (IDC) in ihrem Bericht Global DataSphere, dass im vergangenen Jahr mehr als 59 Zettabyte (ZByte) an Daten erstellt, erfasst, kopiert und verbraucht wurden. Und diese riesige Datenmenge will verwaltet werden!
Diese Herausforderung ist umso größer, als nur 15 Prozent der aktuell insgesamt 103 ZByte an Daten neue originäre Daten sind. Das liegt daran, dass der Großteil des neuen Datenbergs, den wir jedes Jahr erklimmen müssen, Kopien von Daten sind, die sich bereits irgendwo anders – in einer anderen Datenbank, einer anderen Anwendung, einem anderen Cloud-Service oder einem anderen Informationsstrom – befinden.
Selbst wenn sich die 15 Prozent neuen und ursprünglichen Daten eingrenzen lassen, wird es sich dabei zum Großteil um unbearbeitete, schlecht formatierte, unter Umständen beschädigte und generell unstrukturierte Daten handeln. Es gibt also viel zu tun. Um sich dieser gewaltigen Aufgabe zu stellen, sollten sich die Unternehmen an den folgenden fünf strategischen Handlungsbereichen orientieren.
Eine Strategie für Datenanalysen muss aus einem Guss sein
Informationen schätzen Ordnung, Form und Struktur. Dieser Ordnungsbedarf sollte sich daher in einer Datenanalysestrategie widerspiegeln, mit deren Hilfe die Unternehmen ihre Strategie zur Transformation des Geschäfts unterstützen und beschleunigen können.
Gleichzeitig sind Daten ein lebendiger, dynamischer und oftmals unstrukturierter Teil des Geschäfts. Sie werden gebraucht, wenn sich geschäftliche Anforderungen ändern, zum Beispiel um veränderte oder neue Anwendungsszenarien in anderen Anwendungen und über andere Plattformen als bisher zu unterstützen. Um mit den daraus resultierenden Unsicherheiten umzugehen, sollten die Unternehmen nach Art von Börsenhändlern investieren und niemals alles auf eine Karte setzen.
Folglich sollten Unternehmen eine Strategie zur Datenanalyse entwickeln, die gleichsam ein diversifiziertes Anlageportfolio nutzt und sich auf diejenigen Anlagen konzentriert, die den größten Effekt auf das Geschäftsergebnis haben. Ein Beispiel für eine solche Anlage könnten Kundendaten sein, die das Umsatzwachstum steigern. Dadurch können sich die Unternehmen Schritt für Schritt mit einem datengestützten Geschäftsmodell vertraut machen, neue Erkenntnisse gewinnen und das Modell optimieren, ohne die Grenzen, die Risikomanager und Regulierungsbehörden setzen, zu überschreiten.
Eine Strategie zur Datenanalyse muss anpassbar sein
Passend dazu sollten die Unternehmen einen offenen und anpassbaren Ansatz in Sachen Architektur von Umgebungen für Datenanalysen verfolgen. In der Tat weisen die heutigen verteilten Cloud-zentrierten Topologien denselben entkoppelten und geschichteten Ansatz auf, der einer intelligenten Daten-Dezentralisierung von Anfang an zugrunde liegt.
Nutzen Unternehmen moderne Data-Lake-Technologien einschließlich so genannter Data-Lake-Houses, können sie neue Lösungen sowohl für Menschen, als auch Maschinen entwickeln. Diese basieren auf einer verteilten Datenarchitektur, deren Ziel darin besteht, Daten unabhängig von ihrer Quelle sowie ihrem Ort zu umfassen und sie allen Nutzern unabhängig von deren Standort sowie Gerät zur Verfügung zu stellen.
Ein anderes Wort für diesen Ansatz lautet Datendemokratie. Sie stellt allen Anwendern unabhängig von ihren technischen Fähigkeiten sowohl die Daten als auch die Funktionalitäten zu ihrer Analyse im Selbstbedienungsmodell bereit. Eine solche anpassbare und offene Architektur für Datenanalysen basiert auf offenen Standards. Dadurch ist sie auf geschäftliche Veränderungen vorbereitet, wann und wo auch immer sie stattfinden. Dass sie stattfinden, ist freilich gewiss.
Hinter neuen geschäftlichen Möglichkeiten steckt Agilität
Wenn IT-Experten über Agilität sprechen, beziehen sie sich auf das „Agile Manifesto“, das Programmierern einen Leitfaden an die Hand gibt, wie sie Änderungen zu einem möglichst frühen Zeitpunkt und in großer Zahl in ihrer Entwicklungsarbeit berücksichtigen und trotzdem schnell entwickeln können. Eine neue Generation von Lösungen für Datenmanagement und -analysen wird zu einem höheren Grad agile Entwicklungs- und Bereitstellungsmethoden nutzen. Diese bringen Menschen, Prozesse und die nötigen Werkzeuge zusammen, mit deren Hilfe Unternehmen neue Datengruppen sowie Modelle für künstliche Intelligenz (KI) und maschinelles Lernen (ML) schneller und in beliebiger Zahl erstellen können. Dadurch lassen sich neue geschäftliche Möglichkeiten mit nur geringem Zeitaufwand erschließen.
Die Anwendung von DataOps- und ModelOps-Techniken kann während des gesamten Datenlebenszyklus für eine höhere Agilität sorgen. Das versetzt die Unternehmen in die Lage, verstärkt von Werkzeugen auf KI-Basis zu profitieren. Diese können dabei helfen, Datenanalysen zu operationalisieren, zu optimieren und weiteren Nutzerkreisen zur Verfügung zu stellen.
Automatisierung entlastet Menschen und setzt neue Potenziale frei
Je mehr KI und ML die einzelnen Schichten des Technologie-Stack durchdringen, umso positivere Einflüsse können sie auf neue Ansätze für Datenanalysen ausüben. Schon heute können Unternehmen aktuelle KI- und ML-Fähigkeiten in ihren Werkzeugen für Datenanalysen nutzen und dadurch einige der regelmäßig anfallenden Arbeiten automatisieren, die standardisierbar sowie quantifizierbar sind und sich wiederholt ausführen lassen.
Auf der Ebene der Analysen selbst können smartere KI- und ML-Modelle den Unternehmen dabei helfen, Analyse-Algorithmen zu erstellen, sie in iterativen Schleifen immer detaillierter zu verstehen und zu verbessern, ohne zusätzlichen Programmieraufwand neue Muster zu erkennen und Erkenntnisse daraus zu gewinnen und schließlich die Leistungen von Datenanalysen zur Laufzeit zu optimieren. Angewandte KI- und ML-Modelle in Werkzeugen für Datenmanagement können zudem dazu beitragen, Arbeitslasten zu reduzieren. So lassen sich manuelle Prozesse wie Datenermittlung und -abgleich, das Designen von Datenmodellen und die Optimierung von Datenabfragen automatisieren.
Zukunftsfeste Umgebungen für Datenanalysen brauchen Konvergenz
Was bedeutet Datenanalytik der Zukunft? Die Antwort darauf markiert den fünften strategischen Handlungsbereich: Zwar haben die Unternehmen heute schon die Möglichkeit, die Grenzen zwischen den unterschiedlichen und untereinander unverbundenen Silos einzureißen, aus denen ihre Datenmechanik besteht.
Doch liegen in den meisten Unternehmen die Lösungen für Metadaten- und Stammdaten-Management sowie für Governance, Katalogisierung, Modellierung, Pflege, Schutz und Integration von Daten als separate Systeme vor. Dasselbe lässt sich über Anwendungen für Berichtswesen, Datenvisualisierung und -analyse sowie Data Science sagen. Diese Silos erhöhen die Komplexität, treiben die Kosten und steigern das Risiko von systeminternen Prozessunterbrechungen. Anders ausgedrückt: Sie bedeuten mehr Aufwand und weniger Ertrag.
Ein innovativerer Ansatz, der zugleich mehr Zukunftssicherheit verspricht, besteht in der Technologiekonvergenz. Unternehmen, die ihre Siloarchitektur für Datenanalysen modernisieren wollen, sollten auf Umgebungen setzen, die Funktionalitäten für Self-Service-Visualisierung, fortgeschrittene Data Science, die Analyse von Streaming-Daten und Reporting integriert beinhalten.
Datenanalysen – schon bald eine Selbstverständlichkeit
Daten begleiten uns in Zukunft überall, in jeder Anwendung, auf jedem Gerät und jetzt auch in jeder intelligenten Maschine. Ein leistungsfähiger, zukunftssicherer Ansatz für Datenanalysen versetzt die Unternehmen in die Lage, ganz selbstverständlich mit einer größeren Anzahl an Datentypen zu arbeiten, von der obersten Schicht der Endanwender bis hinunter zur Ebene der Protokolldateien und Systemereignisse.
Bob Eve ist Senior Data Management Strategist bei TIBCO Software