Digitale Geschäftsmodelle benötigen „predictive“ Analysen Technische Voraussetzungen für zukunftsgerichtete Analysen

25. Februar 2016

Warum benötigen digitale Geschäftsmodelle vermehrt zukunftsgerichtete, also „predictive“ Analysen und welche technischen Gegebenheiten gilt es hier zu berücksichtigen? Antworten auf diese Fragen geben BI-Spezialisten von der prevero Group, der EXASOL AG, Qlik, Jedox, Tableau Software und Information Builders.

Denn speziell bei digitalen Geschäftsmodellen ist schnelles Handeln essentiell. Zukunftsgerichtete Analysen agieren hier quasi als Frühwarnsystem, machen auf die Änderungen aufmerksam und können, je nach Programmierung, zum Teil auch mit konkreten Handlungsvorschlägen reagieren.

Mustererkennung

Mathias Golombek, Chief Technology Officer bei Exasol: „In-Memory Datenbanken sind aus mehreren Gründen besonders gut geeignet.“ Quelle: Exasol

„Bei digitalen Geschäftsmodellen ist die Verfügbarkeit der Daten zumeist sehr gut. Die Geschäftsabläufe sind transparent, die Geschäftsmodelle dynamisch“, so skizziert Matthias Thurner die Ausgangslage. Der Mitbegründer, Vorstand und CTO der prevero Group leitet daraus ab, dass Unternehmen mit den geeigneten Tools erkennen können, wenn bestimmte Datenabläufe nicht mehr in ein bestimmtes Muster passen und wo Handlungsbedarf besteht. „Beispielsweise merke ich sofort, wenn sich ein bestimmtes Käuferverhalten ändert, wenn bestimmte Produkte vermehrt oder weniger nachgefragt werden oder wenn andere Parameter sich verschoben haben“, erläutert Thurner. „Gerade bei digitalen Geschäftsmodellen ist schnelles Handeln essentiell, und zukunftsgerichtete oder auch predictive Analysen agieren hier quasi als Frühwarnsystem, machen auf die Änderungen aufmerksam und können, je nach Programmierung, zum Teil auch mit konkreten Handlungsvorschlägen reagieren.“

Wenn es um die technische Umsetzung der „predictive“ Analysen geht, komme man ab einer bestimmten Datenmenge an der „In Memory-Technologie“ nicht mehr vorbei. „Dieser Ansatz erweist sich als wesentlich schneller als andere Systeme und liefert einem in der Auswertung die notwendige Performance“, berichtet Thurner. „Allerdings kann ich bei bestimmten Auswertungen mit anderen Systemen durchaus auch schon bei kleineren Datenmengen Probleme bekommen, wenn beispielsweise die relationale Datenbank an ihre Grenzen stößt.“

Für Mathias Golombek, Chief Technology Officer bei der EXASOL AG steht eines fest: „Digitale Geschäftsmodelle gehen immer mit Unternehmen einher, die extrem datengetrieben sind. Die erzeugte Datenflut gilt es nicht nur zu sammeln und zu verarbeiten, sondern vor allem zu analysieren. Denn nur wer effektive Erkenntnisse aus diesen Daten zieht und diese für seinen Geschäftserfolg nutzt, wird auf Dauer im Wettbewerb bestehen können.“ Nach seiner Einschätzung spielen auch Prognosen für den Geschäftsverlauf eine wichtige Rolle: „Mit Predictive Analytics lassen sich schnell und effektiv Vorhersagen erstellen, die eine fundierte Grundlage für wichtige strategische Entscheidungen innerhalb eines Unternehmens darstellen.“

Aus seiner Sicht lässt sich Predictive Analytics grundsätzlich mit unterschiedlichen Analysesystemen realisieren. „In-Memory Datenbanken sind aus mehreren Gründen besonders gut geeignet. Der größte Vorteil liegt in der Schnelligkeit, die das A&O für Ad-hoc- sowie Echtzeit-Analysen darstellt. In-Memory Datenbanken können riesige Datenmengen direkt im Hauptspeicher halten und verarbeiten.“ Der Zugriff auf Daten, die im Hauptspeicher liegen, sei um den Faktor 1.000 schneller als der Zugriff auf Daten, die auf der Festplatte platziert sind. Häufig müssten Entscheidungen innerhalb von Sekundenbruchteilen getroffen werden – dabei sei es wichtig, dass die Datenverarbeitung mithalten kann. „Dies ist nur mit Hilfe von In-Memory-Datenbanken umsetzbar“, ist Golombek überzeugt. „Zugleich sind In-Memory-Datenbanken zum Teil sogar kosteneffizienter als konventionelle Datenbankhersteller. Durch smarte Kompressionsalgorithmen und fallende RAM-Preise werden die Hardware-Investitionen minimiert. Zudem sorgen intelligente Lizenzmodelle dafür, dass nur für diejenigen Daten bezahlt wird, welche auch immer schnell ausgewertet werden müssen.“

Industrie 4.0

Robert Schmitz, Country Manager bei Qlik: „Der forcierte Einsatz von Predictive Analytics ist für die meisten Unternehmen ein wichtiges Ziel.“ Quelle: Qlik

Für Robert Schmitz, Country Manager DACH bei Qlik, ist Predictive Analytics ein hochspannendes Thema, das seine Vorteile nicht nur im Umfeld von Industrie 4.0 ausspielen kann. „Der forcierte Einsatz von Predictive Analytics ist für die meisten Unternehmen ein wichtiges Ziel. So zeigen Studien aus dem Supply Chain-Umfeld, dass vielen Entscheidern der Nutzen von Predictive Analytics bewusst ist, ein Großteil aber ausschließlich vergangenen Daten in ihre Analysen einbeziehen. Das ist verschenktes Potential!“ Er benennt auch ein Beispiel aus dem Bereich Produktion: „Hier kann die intelligente Datenauswertung bei der Planung von Wartungszeiträumen helfen. Dazu werden die Zustandsdaten der Maschinen mit den zukünftigen Auslastungsdaten abgeglichen, um so den optimalen Zeitpunkt der Wartung festzulegen.“
Für Schmitz erweist sich die In-Memory-Technologie auf jeden Fall als nützlich, da sie Performance von Predictive Analytics Abfragen signifikant beschleunigt: „Erfolgreiche Predictive Analytics steht und fällt mit dem Datenbestand und der Datentiefe, auf der die Algorithmen aufsetzen. Qlik wird in Verbindung mit Predictive Analytics Anforderungen erfolgreich eingesetzt.“

Dagegen spricht Dr. Rolf Gegenmantel, Vice President Jedox Marketing, der technsichen Umsetzung keine wesentliche Rolle zu: „Aus Fachanwendersicht ist es vollkommen egal, wie die technologische Grundlage für entsprechende Vorhersage-Algorithmen aussieht. Entscheidend ist, dass die Ergebnisse korrekt und zeitnah zur Verfügung stehen. Weiterhin ist es essentiell, dass sich notwendige Veränderungen an den prädiktiven Algorithmen, die sich aus Umweltveränderungen in einem dynamischen Umfeld regelmäßig ergeben können, schnell, einfach und zeitnah umsetzen lassen.“ Aufgrund der immer größeren Datenmengen – vor allem in operativen Reporting-Bereichen – biete die In-Memory-Technologie in Kombination mit massiv-parallelen Kalkulationsalgorithmen für diese Anforderungen allerdings erhebliche Vorteile.

Die Relevanz der zukunftsgerichteten Analysen für die Umsetzung der digitalen Geschäftsmodelle steht für ihn dagegen außer Frage. „Wenn eine Kennzahl so relevant ist, dass man sie berichten und regelmäßig analysieren möchte, sollte man sich auch bewusst sein, was der angestrebte ideale Zielwert dieser Kennzahl sein sollte. Um diesen zu ermitteln, ist eine zukunftsgerichtete Planung unabdingbar.“ Für die Steuerung des Unternehmens sei anschließend die kurz- und mittelfristige Vorhersage (also das Forecasting, Prediction) der naheliegende, nächste Schritt.

Blick in die Kristallkugel

Nathan Jagoda, Country Manager Deutschland von Information Builders: „Interessant sind vor allem Hybrid-Lösungen, die die Performance von In-Memory-Lösungen bei einem Minimum an Hardware bieten.“ Quelle: Information Builders

„Für die Quantifizierung und den Vergleich historischer Daten und zum Anzeigen von vergangenen Ereignissen, sind Abfragen, Berichte, Dashboards und andere herkömmliche Business-Intelligence-Lösungen höchst effektiv. Dennoch benötigen Entscheidungsträger prognostische Analysen, um zukünftige Ereignisse, Verhaltensweisen und Bedingungen schnell und genau vorhersagen zu können“, gibt Nathan Jagoda zu Protokoll. Der Country Manager Deutschland von Information Builders ist überzeugt, dass Unternehmen, die prognostische Analysen in ihre Business-Intelligence-Strategien integrieren, dadurch wesentliche Vorteile erzielen: „Ein erhöhter Wettbewerbsvorteil, optimierte Produktivität und Kosteneffizienz, höhere Rentabilität und mehr Kundentreue und -bindung werden dank der rascheren Bestimmung neuer Chancen und des schnelleren Erkennens und Behebens von Problemen erreicht.“

Für ihn bringen In-Memory-Lösungen eine Reihe von Vorteilen mit sich: „Sie sind schneller und ihre Zugriffszeiten sind besser vorhersagbar als die von Datenbank-Managementsystemen, die auf Festplatten zugreifen. Der höhere Hardware-Bedarf ist jedoch oft abschreckend.“ Des Weiteren fordern laut Jagoda ständig steigende zu analysierende Datenmengen eine weitgehendere Lösung als In-Memory. Interessant seien daher vor allem Hybrid-Lösungen, die die Performance von In-Memory-Lösungen bei einem Minimum an Hardware bieten. „Das funktioniert zum Beispiel durch eine für Abfragen optimierte, spaltenorientierte, direkt in die BI-Plattform integrierte Datenbank, die In-Memory-Analyseverfahren sowie umfangreiche Komprimierungsfunktionen nutzt und so für eine deutlich höhere Performance von BI-Applikationen sorgt“, erklärt Jagoda. „Davon profitieren insbesondere Anwendungen, bei denen eine hohe Zahl von Ad-hoc-Anfragen oder sehr große Datenmengen zu verarbeiten sind.“

„Durch die Digitalisierung wächst die Datenflut unaufhaltsam. Mit Hilfe von Data Mining / Predictive Analysis lassen sich bestimmte Muster in Daten erkennen und daraus Prognosen ableiten“, steht für Lars Milde, Senior Marketing Manager, DACH & Eastern Europe bei Tableau Software außer Frage. Zum Beispiel werden bei der Automatisierung industrieller Fertigungsprozesse an vielen Stellen im Produktionsablauf Prozessdaten erfasst und gespeichert. Wenn sich wiederkehrende Muster aufzeigen lassen, so Milde, können die Produktionsplaner auf deren Basis zum Beispiel Fehler im Fertigungsprozess vorhersehen. Das gelte auch für viele andere Bereiche. „Die Auswertung und Analyse von Daten und das Aufzeigen bestimmter Muster schaffen eine nie dagewesene Transparenz, die Unternehmen die entscheidenden Indikatoren dafür liefern, mit welchen Strategien sie erfolgreich sein werden“, stellt Milde heraus. „Das Erkennen solcher Zusammenhänge verschafft dem Unternehmen einen Wettbewerbsvorteil, weil es seine Ressourcenplanung danach ausrichten kann.“

Bei der Frage nach der besten technischen Umsetzung kommt es laut Milde auf den Zweck an: „Unterschiedliche Anwendungsfälle erfordern unterschiedliche Datenquellen. Bin ich auf sekündliche Updates angewiesen, um schnelle Reporting-Zyklen darzustellen oder arbeite ich mit einer extrem großen Datenmenge, dann brauche ich In-Memory, da diese Technologie hohe Geschwindigkeiten ermöglicht. Will ich externe Daten einbinden – etwa das Tracking der DHL, also keine riesigen Mengen an Daten – dann ist In-Memory zu viel des Guten.“

Rainer Huttenloher

Lesen Sie auch