Hyperkonvergente Analytik braucht die DorfgemeinschaftAnalytik ernst nehmen

20. Juli 2021

Seine Geschäftsentscheidungen im Nachgang zu evaluieren, um sie auf ihren Erfolg oder Misserfolg zu überprüfen, kann hilfreich sein. Allerdings verschafft das nur einen Überblick darüber, wie gut oder schlecht sich ein Unternehmen in der Vergangenheit geschlagen hat. Die Orientierung jedoch, wohin die Reise in Zukunft geht und welche Ergebnisse zu erwarten sind, fehlt.

In den Anfängen der Analytik war die Fähigkeit, über die Vergangenheit zu reflektieren, ein grundlegender Wert. Heute werden Neuerungen in der Analytik von Unternehmen genutzt, um den aktuellen Stand in Echtzeit zu betrachten und dies dafür zu nutzen, Vorhersagen darüber zu treffen und zu begreifen, was morgen passieren könnte.

Einblicke in Vergangenheit, Gegenwart und Zukunft zu haben, fasst den Stand der Analytik zusammen. Die Verschmelzung aller drei ist die Basis der hyperkonvergenten Analytik. Kurzgefasst befähigt die hyperkonvergente Analytik das wettbewerbsfähige Unternehmen, auf der Basis von Ereignissen und Daten zu handeln, wenn sie eintreten und entstehen. So hält das Unternehmen mit dem Tempo des Geschäfts mit und seine Handlungen entfalten den größten Wirkungsgrad.

In der Vergangenheit haben Unternehmen in Analytik investiert, weil sie ihre historischen Daten verstehen wollten. Das ist immer noch ein guter Ausgangspunkt. Allerdings benötigen sie, um voranzukommen und sich ernsthaft mit Analytik auseinanderzusetzen, eine Basis, die ihnen Einblicke in alle drei Zeithorizonte gibt. In der Theorie klingt das großartig, aber in der Praxis bereitet die Nutzung von Daten und neuen Datentypen aus verschiedenen Geschäftsbereichen Schwierigkeiten, zumindest am Anfang. Denn um unterschiedliche Teams zusammenzuführen, braucht es einen Gemeinschaftssinn — vergleichbar mit dem einer Dorfgemeinschaft. Ausgangspunkt ist die Einsicht, dass alle unterschiedlichen Erkenntnistypen und Experten notwendig sind, um die von der Analytik geschaffene Basis anzureichern und ihren Geschäftswert zu erhöhen.
Die größte Herausforderung der hyperkonvergenten Analytik liegt darin, alle Sichtweisen, Herangehensweisen, Kenntnisse und Fertigkeiten unter einen Hut zu bekommen. Nicht minder anspruchsvoll ist die Antwort auf die Frage, aus welchen Quellen die Unternehmen ihre Daten beziehen sollen. Jeder hat seinen Platz in der holistischen und angereicherten Analytik-Landschaft. Das gilt in gleichem Maße für die Daten. Aus historischen Daten lassen sich Reportings und Dashboard-Ansichten erstellen, um nachvollziehen zu können, was geschehen ist. Doch ist es eine viel komplexere Aufgabe, Vorhersagen und Entscheidungen anhand von Live-Daten zu treffen und Streaming-Daten mittels Abhörstationen zu überwachen und sie zum Ausgangspunkt für Handlungen zu machen.

Daten auf eine neue Grundlage stellen

Hyperkonvergente Analytik verschmilzt Datenquellen zu einer einheitlichen Datenschicht, auf deren Basis sich Vorhersagen treffen lassen. Man kann diese Schicht mit einem zentralen Dorfbrunnen vergleichen, aus dem die Daten aus allen Quellen dem Grundwasser gleich zusammenfließen und zu dem jeder geht, um „sein“ Wasser zu schöpfen. Als zentrale Quelle liefert dieser Dorfbrunnen sozusagen reines Quellwasser und ändert das Verhalten der Menschen, die üblicherweise zur nächstgelegenen Wasserstelle gehen würden, um ihre Eimer mit weniger sauberem Wasser oder eben mit unkuratierten Daten zu füllen.

Möglich machen dies Lösungen für Datenvirtualisierung. Diese Lösungen führen nicht nur Daten zusammen, sondern definieren, wie sich Nutzer mit den Daten verbinden und wie sie anschließend Streaming-Daten herausfiltern und analysieren. Hyperkonvergente Analytik geht jedoch noch einen Schritt weiter und verbindet diese Daten mit Data-Science-Lösungen, um die für Vorhersagen erforderlichen Einblicke und Erkenntnisse zu gewinnen.

Zurück zu den Quellen

Den Dorfbrunnen zu graben ist eine komplexe Aufgabe. Das Top-Management muss hinter dem Projekt stehen und für die nötigen finanziellen Mittel sorgen. Außerdem müssen die benötigte technische Expertise und die erforderlichen technischen Werkzeuge vorhanden sein. Alle Mitglieder der Dorfgemeinschaft müssen an einem Strang ziehen. Die Idee, dass sich alles Alte in Neues verwandeln lässt, erweist sich als wahr, wenn die Unternehmen von den Vorteilen hyperkonvergenter Analytik zu profitieren beginnen.

Voraussetzung dafür sind jedoch ein gutes Stammdatenmanagement und eine hohe Datenqualität; das ist bereits seit den 1990er Jahren bekannt. Fehlt diese Voraussetzung, verzetteln sich die beteiligten Teams und zerstreuen sich in alle möglichen Richtungen, anstatt zusammenzuarbeiten, während die Projekte, die auf verlässliche Daten angewiesen sind, zum Scheitern verurteilt sind. Es wird um einiges länger dauern, Projekte auf den Weg zu bringen, da die verschiedenen Teams noch mit der Behebung von Datenproblemen beschäftigt sind, während sie schon Modelle und Applikationen bauen sollen.

Wer vor dem Bau und der Eröffnung des Dorfbrunnens die Qualität des Grundwassers nicht prüft, droht, das ganze Dorf zu vergiften. Datenmanagement mag nicht so attraktiv sein wie Datenanalyse. Doch wenn die Datenquellen verunreinigt sind, sind schon rudimentäre Analyseprojekte kaum zu meistern, ganz zu schweigen von hyperkonvergenter Analytik.

Ein Wertversprechen

Am wichtigsten ist aber, in der Lage zu sein, auf die Daten im Geschäftstempo zuzugreifen. Da es sich um Echtzeitdaten handelt, ist es diese Geschwindigkeit, die dann — basierend auf der Interpretation dessen, was die Daten aussagen — die sogenannte Time-to-Value (also die Zeit bis zur Wertschöpfung) der Unternehmen bestimmen wird. Wenn Anwender zurückschauen und sich gleichzeitig ansehen können, was gerade jetzt und heute passiert, können sie auch anfangen, Vermutungen über morgen anzustellen. Der Unterschied ist allerdings, dass diese Vermutungen, wenn die Analytik im Spiel ist, nicht auf Empfinden beruhen, sondern vielmehr auf Fakten. Daher rührt auch die Fähigkeit, die Zukunft auf Basis von Mustern, die sich aus den Daten zutage fördern lassen, vorherzusagen.

Wenn die Dorfgemeinschaft ihr Wasser von einem einzigen Brunnen bezieht, ist für die Dorfvorsteher umgehend ersichtlich, ob das Wasser ausreichen wird, um die Gemeinde zu versorgen oder nicht. Im Falle der Daten versetzt einen die zentralisierte Datenschicht in die Lage, zu verstehen, wie sich die Systeme unternehmensübergreifend skalieren lassen. Die für den Datenzugriff notwendigen Lösungen lassen sich kuratieren und die Datenwissenschaftler können ein und denselben Eimer nutzen, um Wasser zu schöpfen.

Desgleichen können sie Algorithmen oder Modelle wiederverwenden, die andere erstellt haben, und damit die Time-to-Value verkürzen. Eine neues Kundensegmentierungsmodell zu entwerfen, wenn das Team in Großbritannien bereits eines erstellt hat, ergibt einfach keinen Sinn. Mit einer hyperkonvergenten Analytik-Umgebung bekommt man die notwendige Transparenz, um einen Überblick darüber zu bekommen, was bereits gemacht worden ist und — am wichtigsten — was man davon wiederverwenden kann.

Die Wiederverwendung von Analytik-Komponenten lässt sich mit der Zusammenarbeit in einer Dorfgemeinschaft vergleichen. Wiederverwendung ist eine zentrale Prämisse, aus der sich ModelOps – also das integrierte Zusammenspiel von Betriebsteams und Datenwissenschaftlern – ableitet. Dieses Modell lebt von wiederverwendbaren Analyseframeworks, deren Nutzen von allen Dorfbewohnern abhängt und nicht nur von der Kraft eines Einzelnen. Eine hyperkonvergente Analytik-Umgebung verlangt einem Unternehmen ab, sich ModelOps zu eigen zu machen. Erst dadurch rückt der Mehrwert, der damit geschaffen werden kann, in den Mittelpunkt.

Bereitstellung standardisieren

Unternehmensdaten verändern sich minütlich. Aus diesem Grund sollten Unternehmen in Richtung hyperkonvergente Analytik migrieren. Aus demselben Grund kommt es noch mehr darauf an, Datenaktionen, -prozesse und -lösungen zu standardisieren. Wer verinnerlicht, dass jeder in der Dorfgemeinschaft eine Rolle spielt — von der Führungsebene bis hin zu den Datenwissenschaftlern, Analysten und Datenadministratoren —, ist schon einen Schritt näher an einem echten Zusammenspiel zwischen Systemen und Menschen.

Die Bereitstellung einer hyperkonvergenten Analytik-Umgebung — der Bau eines Dorfbrunnens — bedeutet nicht nur, einen zentralen Ort für die Aufbewahrung der Daten zu schaffen. Das ist nur einer der zahlreichen Vorteile wie bessere Konsolidierung, Verwaltung, Standardisierung, Kontrolle und Wiederverwendung. All das dient der Beschleunigung der Datenverarbeitung und der Steigerung des Mehrwerts für das Unternehmen.

Geradezu idealtypisch realisiert hat diesen Ansatz AA Ireland, der führende Kfz-Dienstleister Irlands. Um profitabel zu sein, ist ein Versicherungsanbieter auf Datenmodellierungstechnologien angewiesen. Denn nur so lassen sich die Versicherungspolicen und die darin genannten Deckungssummen für jeden Versicherungsnehmer individuell in Abhängigkeit einer ganzen Reihe von Schlüsselfaktoren wie dem individuellen Risiko korrekt bepreisen und gleichzeitig aus der Sicht potenzieller Kunden gegenüber dem Wettbewerb preislich attraktiv gestalten.

AA Ireland hat eine wettbewerbsfähige Plattform geschaffen, mit deren Hilfe das Unternehmen nicht nur die Gesamtkosten senken konnte. Vielmehr hat der Versicherungsanbieter damit auch die Hoheit über die Datenquellen und kann das gesamte System flexibel konfigurieren. Als Folge davon konnte AA Ireland seinen Marktanteil im Einklang mit seinen Zielen in Sachen Profitabilität steigern. Denn dank der Plattform konnte das Unternehmen die richtigen Kunden adressieren, die Risiken senken, die Konversionsrate erhöhen und den Umsatz um 22 Prozent steigern.

Gleichzeitig war der Versicherungsanbieter in der Lage, auf der Basis von Kundenanalysen die Beziehungen zu bestehenden Policen-Inhabern zu vertiefen, die Kundenbindung zu erhöhen und erfolgreiche Programme zum Cross-Selling mit anderen Produktlinien zu entwickeln. Dieser Ansatz hat dazu beigetragen, das Geschäftsmodell von AA Ireland vom reinen Versicherungsvermittler zu einem Plattformanbieter zu transformieren, dessen Kerngeschäft in der Lösung von Datenproblemen besteht, um Geschäftsbereiche zu erweitern, Umsätze zu steigern und Marktanteile zu erhöhen.

Geschwindigkeiten synchronisieren

Die grundlegende Idee hinter hyperkonvergenter Analytik lautet, den Geschäftsbetrieb genauso schnell zu machen wie die Geschwindigkeit, mit der sich Daten ändern. Hyperkonvergente Analytik zeichnet sich durch eine zentral zugängliche Datenschicht aus, die ein Center of Excellence in den Unternehmen nutzt, um auf die Herausforderungen dieser Datenänderungen zu antworten. Unternehmen, die Modelle korrekt managen und anerkennen, dass sich das Käuferverhalten heute gegenüber dem Vorjahr stark unterscheidet, werden in ihrer Produktentwicklung agiler und verkürzen die Time-to-Value. So trocknet der Dorfbrunnen niemals aus und jedes Mitglied der Dorfgemeinschaft trägt kontinuierlich seinen Teil zum Wissen über die Zukunft bei.

Shawn Rogers ist Vice President für den Bereuich Analytics Strategy bei TIBCO.

TIBCO

Lesen Sie auch